• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Immer mehr Megapixel ...

nice one
 
Das ist wie mit Computern. Die Nutzungen gehen ja weit auseinander, z. B. für Textverarbeitung und eMail reicht locker ein Rechner von 1997 mit Pentium 200 und 128 MB RAM. Aber fragt man heute in einem Forum, welchen Rechner man zum Briefeschreiben brauche, wird man hören, daß ein 2 GHz-Prozessor mit 1 GB RAM dafür "ausreicht".

Ganz so einfach ist das nicht. Wenn ich auf dem Rechner von 97 tatsächlich dazu passende Software verwende (Windows 95, Office 97) dann stimmt das natürlich.

Wenn ich Vista und Office 2007 verwenden will, ist tatsächlich 2Ghz mit 1GB RAM notwendig. De5 rechner läuft dann übrigens langsamer als der P200 mit Win95, das ist klar...

Genauso gilt: ein Mittelklassewagen vor 20 Jahren war mit 100 PS zügig unterwegs. EIn Mittelklassewagen heute ist es nicht, weil sehr viel schwerer.
 
- Sie sind auch ein Ärgernis beim Verschicken, Uploaden usw.
- v.a. rechnet PS ewig bei großen Dateien.

Ich sehe keinerlei Probleme betreffs Pixelanzahl und Datenverarbeitung.

Warum?

Die Regression aller DSLR-Kameras von Canon über der Zeit ergibt folgende Formel:

Pixelzahl = 4,03 MPixel * 1,1723 ^ (Jahr-2000)

Jahr ist das Vorstellungsjahr. Die Pixelanzahl der verkauften Flotte ist etwas niedriger (knapp 10%).

Die Pixelzahl verdoppelt sich über alle Canon-Modelle betrachtet alle 4,4 Jahre. Speichergrößen und Bandbreiten sind deutlich schneller gewachsen, auch wenn in letzter Zeit nicht mehr die 1,5 Jahre pro Verdopplung gehalten werden konnten.

Extrapolierte Pixelzahlen für DSLRs (gerundet auf ganze MPixels), dahinter übliche Medien zur Speicherung:
  • 1980: 0,17 MPixel (Tonbandkassette)
  • 1985: 0,37 MPixel (360 KByte FD)
  • 1990: 0,8 MPixel (60 MByte HD)
  • 1995: 1,8 MPixel (540 MByte HD)
  • 2000: 4 MPixel (60 GByte HD)
  • 2005: 9 MPixel (250 GByte HD)
  • 2010: 20 MPixel (2 TByte HD ?)
  • 2015: 44 MPixel
  • 2020: 97 MPixel
  • 2025: 215 MPixel
  • 2030: 475 MPixel
Das ganze noch mal für Nikon ergibt:

Pixelzahl = 3,05 MPixel * 1,1804 ^ (Jahr-2000)

Extrapolierte Pixelzahlen für DSLRs (gerundet auf ganze MPixels):
  • 1980: 0,11 MPixel
  • 1985: 0,25 MPixel
  • 1990: 0,58 MPixel
  • 1995: 1,3 MPixel
  • 2000: 3 MPixel
  • 2005: 7 MPixel
  • 2010: 16 MPixel
  • 2015: 37 MPixel
  • 2020: 84 MPixel
  • 2025: 193 MPixel
  • 2030: 442 MPixel
Ist übrigens eine Verdopplung alle 4,2 Jahre, das sind 2 Monate weniger als bei Canon.

Journalismus der heutigen Zeit würde daraus schließen, daß Canon irgendwann mal (so um 2040 rum) Pleite ist, weil es weniger Megapixel als Nikon hat.

Wenn ich blutige Glaubenskriege mit tausenden Toten anzetteln wöllte, würde ich die Regression noch mal für die SD9, SD10 und SD14 machen ...

Nur soviel: Die Kaffeesatzleserei ergibt für Sigma im Jahr 2030 eine Pixelanzahl von 3 * 22,5 MPixeln.
 
Zuletzt bearbeitet:
Nur was nützt die technische MÖGLICHKEIT, wenn es keine NOTWENDIGKEIT gibt?

Wieso soll ich mir 38MB RAW-Dateien aufladen, die bspw. übers 100MBit-Heimnetzwerk geladen doch einen erheblichen Performance-Knick bedeuten, wenn dadurch doch im Endergebnis (Print, Monitor) für mich keine Verbesserung entsteht? Wieso soll ich mir neue Hardware (PC, Festplatten/Storage) kaufen, wenn dadurch doch im Endergebnis (Print, Monitor) für mich keine Verbesserung entsteht?

Das ist für viele der Knackpunkt, und nicht so sehr ob die aktuelle Hardware das RAW dann auch in 3 Sekunden aufkriegt, so wie die alte Hardware das alte RAW in 3 Sekunden aufgemacht hat.

Es wäre ja UNTER UMSTÄNDEN sogar ne feine Sache, wenn es mal nicht 3 Sekunden, sondern nur noch 0.5 Sekunden dauern würde, mit der neuen Hardware.

Deswegen ist mir das alles auch wumpe, und ich hoffe, dass die D300 noch lange am Markt bleibt, und nicht zu bald komplett durch eine D300s abgelöst wird ;)
 
Ganz so einfach ist das nicht. Wenn ich auf dem Rechner von 97 tatsächlich dazu passende Software verwende (Windows 95, Office 97) dann stimmt das natürlich.

Wenn ich Vista und Office 2007 verwenden will, ist tatsächlich 2Ghz mit 1GB RAM notwendig. De5 rechner läuft dann übrigens langsamer als der P200 mit Win95, das ist klar...

Dazu folgender Link:
http://hubpages.com/hub/_86_Mac_Plus_Vs_07_AMD_DualCore_You_Wont_Believe_Who_Wins

Ein Mac Pro von 1986 gegen nen aktuellen Dualcore-PC :D
Getestet werden einfache Standardsachen, wie Booten des Systems, Suchfunktionen in Word, Ladezeiten etc.!
Gewonnen hat der Mac! :D

Der Test soll zeigen, dass heutige PCs zwar 1Mio. Mal schneller sind (und man auch mehr damit machen kann), die Wartezeiten etc. aber immer noch dieselben sind, bzw. noch länger als vor 20 Jahren...
 
Nur was nützt die technische MÖGLICHKEIT, wenn es keine NOTWENDIGKEIT gibt?
Aktuelle DSLRs haben Antialiasing-Filter. Solange diese notwendig sind, gibt es Optiken, die für den Sensor zu scharf abbilden.
Man macht Optiken künstlich schlechter, damit sie besser mit der Auflösung des Sensors harmonisieren.

Das vielleicht nur 10% der Motive durch einen Auflösungsgewinn an Ausdruck gewinnen, steht auf einer anderen Seite.

Viele Geräte sind aber auf den Maximalbetrieb ausgelegt, weil es noch unsinniger ist, für jeden Spezialfall noch ein Gerät anzuschaffen.
Wenn ich 1 bis 20 MPixel benötig, kaufe ich nicht 4 Kameras mit 1, 3, 8 und 20 MPixel, sondern 1 Kamera mit 20 MPixel.
Das höchste der Gefühle wären 2 Kameras mit 4 und 20 MPixeln.

Wieso soll ich mir 38MB RAW-Dateien aufladen, die bspw. übers 100MBit-Heimnetzwerk geladen doch einen erheblichen Performance-Knick bedeuten, wenn dadurch doch im Endergebnis (Print, Monitor) für mich keine Verbesserung entsteht?
Das gleiche gilt für Rechner.
Ich mache mir mehr Gedanken über das Problem, daß Standardapplikationen ohne viel Mehrwert alle 5 Jahre die zehnfache Speichermenge fressen.

Wie oben erwähnt, steigt die Pixelzahl von Kameras deutlich langsamer als die Resourcen von Rechnern der Einstiegsklasse. Die Lage war im Jahr 2000 schon unkritisch und entspannt sich weiter.

Wenn Du Probleme mit zu vielen Bildern hast, dann wünsche Dir von Canon eine Kamera mit hohem Verschlußverschleiß. 10.000 Images per Camera are ought enough!

Wieso soll ich mir neue Hardware (PC, Festplatten/Storage) kaufen, wenn dadurch doch im Endergebnis (Print, Monitor) für mich keine Verbesserung entsteht?
Der mit Abstand größte Aufwand ist nicht das Speichern von Bildern (2000 RAW Bilder = 5 €), sondern das Fotografieren an sich selbst (Urlaub = 1200 €). Solange das so ist (und die Speicherkapazitäten rennen eher weg), ist das wertvollere, alles zu speichern, was mein 2000 €-Objektiv an Informationen erzeugen kann. Downgraden geht immer.

Das ist für viele der Knackpunkt, und nicht so sehr ob die aktuelle Hardware das RAW dann auch in 3 Sekunden aufkriegt, so wie die alte Hardware das alte RAW in 3 Sekunden aufgemacht hat.
Ich habe einen 4,5 Jahre alten Rechner. 8 MPixel RAWs machen keine Probleme mit gut programmierten Programmen.
Du kämpfst gegen Pseudoprobleme.

Es wäre ja UNTER UMSTÄNDEN sogar ne feine Sache, wenn es mal nicht 3 Sekunden, sondern nur noch 0.5 Sekunden dauern würde, mit der neuen Hardware.
Technisch mit 2 bis 3 Jahre alten Rechnern machbar:
  • Thumbnail aus embedded JPEG eines Raws lesen: ~ 10 ms (Auflösung <256 x 256).
  • JPEG aus einem Raw lesen und dekodieren: ~ 100 ms (halbe Auflösung des Bildes)
  • Raw lesen und dekodieren, einfache Farbrekonstruktion: ~ 200 ms (volle Auflösung)
  • anschließend hochwertige Rekonstruktion, Scharfzeichnung und Rauschfilterung: ~5 Sekunden
Mit gut durchdachter Programmierung kann man auch mit riesigen Bildern und tausenden Bildern problemlos on the fly hantieren und navigieren. Alles eine Frage der Quality of Implementation.

Am schönsten sieht man das an einer Stadtkarte von Londen (32000 x 34000 Pixel, 16 Farben, 100 MByte PNG). ACDSee 5.1 (steinalt) macht das Ding instantan auf und man kann während der 2 sekündigen Ladephase zuschauen! GIMP stürzt nach ca. 30 Minuten einfach ab, ohne das was sinnvolles passiert wäre, weiterhin fehlen dann 2 GByte auf C: .

IrfanView kommt sofort mit einer Fehlermeldung, Photoshop braucht 20 Minuten zum Laden.

Endbemerkung noch:
Wenn man sich richtig Mühe beim Design geben würde, könnte man 21 MPixel RAWs mit 15 bis 20 MByte abspeichern, ohne das relevante Information verloren geht. Näheres dazu auf Anfrage.
 
Zuletzt bearbeitet:
Die Regression aller DSLR-Kameras von Canon über der Zeit ergibt folgende Formal:

Pixelzahl = 4,03 MPixel * 1,1723 ^ (Jahr-2000)

Jahr ist das Vorstellungsjahr. Die Pixelanzahl der verkauften Flotte ist etwas niedriger (knapp 10%).

Wegen solchen rationalen Darstellungen liebe ich Deine Beitrage.
An dieser Stelle ein herzliches DANKE (für diesen und zig ähnliche Beiträge in diesem Forum)! :top:

Armin
 
Mit gut durchdachter Programmierung kann man auch mit riesigen Bildern und tausenden Bildern problemlos on the fly hantieren und navigieren. Alles eine Frage der Quality of Implementation.

Am schönsten sieht man das an einer Stadtkarte von Londen (32000 x 34000 Pixel, 16 Farben, 100 MByte PNG). ACDSee 5.1 (steinalt) macht das Ding instantan auf und man kann während der 2 sekündigen Ladephase zuschauen!

Das ist genau das, was ich auch immer sage: würde man heutzutage nur mal ähnlich gut programmieren wie zu Zeiten, als Computerressourcen begrenzt waren, könnte man heute wahrscheinlich auch mal flüssig einen schönen "Workflow" abarbeiten.

Aber wenn die enorme Computerleistung nur dazu verwendet wird, Code-Müll zu verarbeiten und sinnlose Animationen und ähnlichen Sche*** (sorry, das musste raus) anzuzeigen, braucht man sich nicht wundern, daß man heute vor gleichen Aufgaben genau so lange sitzt, wie vor 20 Jahren.

Schaue man sich nur mal die Creative Suite CS3 von Adobe an: wer zum Geier hat die transparenten Menüs und Überblendeffekte vermisst? Die fressen enorm viel Leistung und bremsen meinen "Workflow" enorm. Klar habe ich nicht den neuesten Rechner (ein letztjähriges PowerBook mit 1,67 GHz) aber ältere Programme laufen damit wie geschmiert.

Oder auch Computerspiele: erst am Wochenende sah ich bei meinem Bruder irgendein neues Rennspiel. Theoretisch klasse Grafik aber er musste die Grafik für seine neue Maschine (nicht unbedingt das Topmodel aber auf jeden Fall um einiges schneller als alles, was ich hier habe) dermaßen einschränken, daß das Spiel genauso aussieht, wie eins von vor 5 Jahren oder noch älter. Das kann's doch nicht sein?

Wieso programmiert nicht mal wieder jemand sauber? Wieso gibt es nicht mehr Browser, die auf eine Diskette passen (da gibt es einen, weiß aber nicht mehr, welcher)? Es gibt doch sogar ein Betriebssystem, das auf eine Diskette passt, wenn ich mich richtig erinnere.

Und so verbraten faule Programmierer weiterhin die enorme Computerleistung von heute, anstatt mal was sinnvolles damit anzufangen. Schade drum!

LGW schrieb:
Deswegen ist mir das alles auch wumpe, und ich hoffe, dass die D300 noch lange am Markt bleibt, und nicht zu bald komplett durch eine D300s abgelöst wird

D300s? Wer braucht eine D300s? Her mit der D300FX :D!
 
Nur was nützt die technische MÖGLICHKEIT, wenn es keine NOTWENDIGKEIT gibt?
Es gibt keine Notwendigkeiten.

Nur manchmal ist es eine Nuance besser, etwas etwas anders zu tun.
Zum Beispiel von den Bäumen runterzukommen. Manche sehen das zwar als Holzweg an, genauso könnte man aber auch debatieren, ob das Landleben notwendig war und man nicht hätte lieber in den Meeren bleiben sollen. Kein Sonnenbrand, nie Durst und die Schwerkraft ist im Wasser dank Auftrieb auch nicht so übel wie am Land.

Diese idiotischen Affen (meine Urururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururururgroßeltern)
hätten ruhig auf den Bäumen bleiben können, eine Notwendigkeit dazu bestand nicht, soweit ich mir habe sagen lassen.
Gleiches gilt für die Elektronik an sich, für die Halbleiterelektronik genauso und für Digitalkameras überhaupt. Glas zu schmelzen ist auch so eine schottige Unsitte, für die keine Notwendigkeit besteht.
 
Natürlich gibt es "Notwendigkeiten".

Mit einer 2MP-Kamera kann man nicht vernünftig 30*45 ausbelichten, von größeren Formaten mal nicht zu reden. Mit 6MP geht dies bereits recht gut, und irgendwo bei 12MP erreicht man eine Auflösung, die auch bei geringem Betrachtungsabstand (halbe Diagonale) vertretbar ist.

Somit ist für mich eine Kamera mit mindestens 6MP durchaus eine Notwendigkeit, eine mit 22MP jedoch nicht.

Nur als Beispiel.

Natürlich ist das keine Notwendigkeit im Sinne des Überlebens, aber für das vorhaben der Fotografie mit Ausbelichtung in 30*45 eben schon.
 
Natürlich gibt es "Notwendigkeiten".

Mit einer 2MP-Kamera kann man nicht vernünftig 30*45 ausbelichten, von größeren Formaten mal nicht zu reden. Mit 6MP geht dies bereits recht gut, und irgendwo bei 12MP erreicht man eine Auflösung, die auch bei geringem Betrachtungsabstand (halbe Diagonale) vertretbar ist.

Somit ist für mich eine Kamera mit mindestens 6MP durchaus eine Notwendigkeit, eine mit 22MP jedoch nicht.
Seit wann muß ein Bild aus sqrt(x²+y²) Entfernung betrachtet werden.
Für ein AL-Portrait mit Blende 1,2 reichen vielleicht 1600 x 1200 Pixel, weil ohnehin nur wenige Passagen des Bildes überhaupt aufgelöst werden. Obwohl das Bild 75 cm x 50 cm groß ist, sieht man es sich aus 200 cm Entfernung an oder erwartet gar nicht, daß das Bild scharf ist (Beispiel für 0,2-0,4 MPixel)

Beim 300 cm x 150 cm Panorama, aufgenommen mit 18 mm Kleinbildäquivalenzbrennweite bei Blende 11 steht man vielleicht doch nur 1 Meter entfernt und sieht sich die feinen Details des Bildes an (13-26 MPixel). Wer neugierig ist, geht sogar auf 60 cm ran (36-72 MPixel).

Fast alles in unserem Leben entspringt einer Ad Hoc-Definition, die häufig sinnvoll ist, aber genauso häufig sinnfrei ist.
 
Es gibt doch sogar ein Betriebssystem, das auf eine Diskette passt, wenn ich mich richtig erinnere.
o.T.
DU meinst wahrscheinlich "FLI4L", ein Linux-basierendes System. Das hatte ich jahrelang auf einem 486er in Gebrauch. Der hatte nur noch das Gehäuse und das Diskettenlaufwerk und Netzwerkkarte. Das ganze war dann die einfachste Lösung für drei PC einen Internetzugang zu schaffen.
Die Diskette wurde vorkonfiguriert, eingelegt und der Rechner fuhr schnell hoch und war dann Server, Firewall in einem. Einen Netzwerkdrucker hätte man auch noch einbinden können.
Einmal eingerichtet (nicht von mir :angel:) und das Ding lief wie ein Käfer.
Hab grad mal nachgeschaut. Die Seite gibt es immer noch und wird gepflegt und weiterentwickelt.
FLI4L
 
Mal eine Frage:

Bei wieviel Megapixel kann der Sensor höher auflösen als die Linse? Meine Kitlinse kann so scharf stellen das sie die Grenze von 8Mpix erreicht.

Ab wann bräuchte ich eine neue Linse? 10 Mpix, 15Mpix, 20Mpix?

Wo liegt das absolute Limit? Es gibt eine Kamera die 160Mpix hat. Wo liegt die absolute Grenze? Wann stößt jede Linse an ihre Grenze?
 
Mal eine Frage:

Bei wieviel Megapixel kann der Sensor höher auflösen als die Linse? Meine Kitlinse kann so scharf stellen das sie die Grenze von 8Mpix erreicht.

Ab wann bräuchte ich eine neue Linse? 10 Mpix, 15Mpix, 20Mpix?

Wo liegt das absolute Limit? Es gibt eine Kamera die 160Mpix hat. Wo liegt die absolute Grenze? Wann stößt jede Linse an ihre Grenze?

778 MPixel gibt es auch schon > http://www.anagramm.de

Ich würde mir keine Sorgen über die MPixel machen. Irgendwann gibt es 150MPixel Kleinbildkameras und dann kommt die Website www.96mpixel.org mit der Info, dass 150 MPixel eindeutig zuviel sind. So oder so werden die wenigsten User mehr als 200MPixel benötigen.

Ich fand übrigens die 10Mixel der Kompaktkamera Canon G7 ganz gut. Bei ISO 100 sind die Bilder scharf und das Rauschen stört nicht.

Also warum 6 MPixel? Ich denke, diese Grenze muss von Jahr zu Jahr angehoben werden.

Mit lichtstarken Objektiven könnte man locker 20MPixel in eine Kompakte reinquetschen. Das Problem ist ja nicht das Rauschen, sondern die Beugungsunschärfe. Mit Lichtstärke 1:2.0 und einem guten 2-fach Zoom oder einer Festbrennweite ist die Auflösung höher, als bei Blende 4 und 3-fach Zoom und Schlimmeres.
 
778 MPixel gibt es auch schon > http://www.anagramm.de
Das ist doch eher eine Art Scanner und keine richtige Diggicam

Ich würde mir keine Sorgen über die MPixel machen. Irgendwann gibt es 150MPixel Kleinbildkameras und dann kommt die Website www.96mpixel.org mit der Info, dass 150 MPixel eindeutig zuviel sind. So oder so werden die wenigsten User mehr als 200MPixel benötigen.

Ich fand übrigens die 10Mixel der Kompaktkamera Canon G7 ganz gut. Bei ISO 100 sind die Bilder scharf und das Rauschen stört nicht.

Also warum 6 MPixel? Ich denke, diese Grenze muss von Jahr zu Jahr angehoben werden.

Mit lichtstarken Objektiven könnte man locker 20MPixel in eine Kompakte reinquetschen. Das Problem ist ja nicht das Rauschen, sondern die Beugungsunschärfe. Mit Lichtstärke 1:2.0 und einem guten 2-fach Zoom oder einer Festbrennweite ist die Auflösung höher, als bei Blende 4 und 3-fach Zoom und Schlimmeres.

Wenn die Schärfe stimmen würde, würden mir auch 10.Gigapixel Bilder gefallen. Man macht ein Bild von einem Aussichtspunkt und später am PC erforscht man die Details. Mir geht es da schon nicht mehr ums ausdrucken sondern um die Anzahl der Dinge die man in diesem Bild am PC finden kann.
Ich hab ein 100 Mpix Satelittenbild und ich finde immer wieder neue Sachen darin.
Ich frag mich nur wo die physikalische Grenze liegt.
 
Das ist doch eher eine Art Scanner und keine richtige Diggicam

Welche "richtige Kamera" hat 160 MPixel? Was du meintest ist auch eine Scannerkamera (die man allerdings freihändig benutzen kann).

Bei einer Kamera mit Schlitzverschluss wird das Bild übrigens auch zeilenweise abgetastet.

siehe hier:
http://www.rit.edu/~andpph/photofile-b/lartigue-1.jpg
http://www.rit.edu/~andpph/photofile-b/doisneau-1.jpg
http://www.rit.edu/~andpph/text-slit-scan.html
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten