• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Große und kleine Bilder von großen und kleinen Sensoren

Rontrus

Themenersteller
Tut mir leid, Kry27, aber das solltest Du nicht nötig haben. Schon bei "echten Trollen" nicht, aber erst recht nicht bei jemandem wie "Rontrus". Der hat viele Zusammenhänge sehr gut verstanden und dargestellt und hat nur mit einer kleinen Nebensächlichkeit "den Fuß nicht in die Tür gekriegt" (und wir nicht bei ihm), nämlich: Vergrößerung wird nicht "gemacht", die ist einfach nur ein Verhältnis von Abmessungen. Wenn Du den dann persönlich diffamierst, nimmst Du ihm jede Chance, seine Sichtweise darzustellen oder unsere nachzuvollziehen (und da dreht's sich nur um die Definition von "Vergrößerung", also Kinkerlitzchenkram ). von Masi1157

Der Thread, in dem es um die Frage ging, ob größere Sensoren auch tatsächlich größere Bilder liefern, wurde leider geschlossen. Ist vielleicht aber auch gut, denn es gingen zu viele Themen durcheinander, und es entstanden zu viele Missverständnisse und Vermischungen.
Ich möchte Masi1157 für das obige Zitat danken und alle, die sachlich diskutieren können, einladen, mich zu überzeugen. Nicht jeder, der anderer Meinung ist und sich nicht gleich überzeugen lässt, ist ein Troll. Ein Forum ist nicht (nur) dazu da, einander immer ein und dieselbe Auffassung zu bestätigen. Auch wenn es manchen eine Zumutung erscheint, möchte ich sie bitten, folgende Überlegungen in Ruhe nachzuvollziehen. Ich hatte anfangs auch große Schwierigkeiten mit der Einsicht. Und wenn ich Unrecht haben sollte, werde ich mich einleuchtenden, klaren und sachlichen Argumenten nicht verschließen. Anderem schon.

Ich behaupte noch immer, dass zwei Digitalbilder zweier unterschiedlich großer Sensoren mit gleicher Pixelzahl auch gleich groß sind und der Vergleich mit der Vergrößerung eines Films nicht stimmt - auch wenn im Endeffekt ähnliche Probleme entstehen.

Was vergleichen wir: die Bilder etwa einer D600 und einer D7100, Kameras mit unterschiedlichen Sensorflächen, aber gleicher Pixelzahl. Ob die Bilder mit äquivalenten Brennweiten aufgenommen wurden, also dasselbe zeigen, ist eigentlich unerheblich, für die weitere Betrachtung aber vielleicht doch hilfreich, also nehmen wir auch das an.

Beide Sensoren erhalten natürlich vom Objektiv ein analoges Bild. Es wird aber dort in Informationseinheiten abgelegt, den Pixeln. Der Sensor ist gewissermaßen eine Tabelle mit in diesem Fall 24 Millionen Zellen. Jede Zelle enthält Informationen über Farb- und Helligkeitswerte. Und diese Werte werden am PC den Monitorpixeln zugewiesen, bei der 100-%-Ansicht die Werte genau eines Sensorpixels genau einem Monitorpixel.

Die Werte der D600 unterscheiden sich in ihrer Vollständigkeit nicht von denjenigen der D7100, weshalb der PC ohne weitere Operation beide Bilder gleich groß anzeigt. In ihrer Qualität unterscheiden sie sich natürlich schon - die Ursache für die Vorteile des großen Formats. Aber das sollten wir bitte zunächst raushalten, um die Diskussion nicht gleich wieder unübersichtlich werden zu lassen.

Wie groß das Medium ist, das Informationen aufzeichnet, ist unerheblich, solange es vollständige Informationen aufzeichnet. Der einzelne Monitorpixel erhält die Anweisung: zeige RGB 227/6/19 an, also ein kräftiges Rot, und er interessiert sich nicht dafür, wie groß das Speichermedium war, von dem diese Anweisung ursprünglich stammt.
Diese Anweisungen sind für jeden einzelnen Pixel - ideale Verhältnisse angenommen - identisch bei D600 und D7100, wenn mit äquivalenten Brennweiten dasselbe aufgenommen wurde.
Dort, wo diese Informationen nicht übereinstimmen, sind Fehler aufgenommen worden, die, ja: ohne Wenn und Aber dem kleineren Format anzulasten sind und großenteils bereits vor Auftreffen auf den Sensor entstanden.
Das ändert etwas an der Bildqualität, aber nichts an der Bildgröße.

R.
 
Zuletzt bearbeitet:
Ich behaupte noch immer, dass zwei Digitalbilder zweier unterschiedlich großer Sensoren mit gleicher Pixelzahl auch gleich groß sind und der Vergleich mit der Vergrößerung eines Films nicht stimmt - auch wenn im Endeffekt ähnliche Probleme entstehen.

Ein Digitalbild an sich hat keine Grösse, sondern nur Pixel. Es ist dimensionslos.

Die Grösse kommt erst bei der Ausgabe ins Spiel.
Hier entscheiden die gewünschten DPI ( Dots per Inch ) und die Grösse, wieviele Pixel das Bild haben muss, um den Anforderungen hinsichtlich Auflösung und Abmessung zu entsprechen.

Die Sensorgrösse spielt hier in der Tat keine Rolle, sondern nur die Pixelzahl des Originals.

Das ist zumindest mein bisheriges Verständnis.
 
Hallo,
ich nehme an du gehst von Endergebnis, also vom fertigen Bild\Poster aus?

Den Unterschied rein beim Sensor merkst du in der Regel spätestens beim Rauschen in hohen ISO werten.
Heute hat wohl eher die Qualität des Objektives Einfluss auf das Bildergebnis.

Im Prinzip sind Objektive mit längerer Brennweite einfacher und genauer zu berechnen.
Da ist der große Sensor, im Prinzip, im Vorteil da er vergleichsweise mit einer längeren Brennweite arbeitet.

Wenn du z.B. ein KB-Objektiv vor einen kleineren Sensor schraubst verwendest du auf der Sensorfläche nur einen Teil des Bildkreises und damit nur einen Teil der Qualität des Objektives.

Heute dürfe der Unterschied eines Bildes vom KB-Sensor zum APS-C Sensor bei "normalen" (z.B. 50x75cm) Postern nicht sehr auffallen.
Sobald du aber eine Kompakte Kamera mit einem Mini-Sensor vergleichst wirst du noch wesentliche Unterschiede bei einem Poster feststellen.

Gruß
Wolfram
 
In der Diskussion geht es darum, dass User masi seit jeher behauptet, dass sich die Schärfentiefe 2er Bilder mit gleichem Bildausschnitt von a) APS-C und b: Kleinbild unterscheiden, weil das APS-C-Bild ja stärker vergrößert werden müsse.

Dadurch hätte APS-C sogar eine geringere Tiefenschärfe, da man stärker vergrößern müsse, um ein gleich großes Bild zu bekommen wie bei Kleinbild.
 
In der Diskussion geht es darum, dass User masi seit jeher behauptet, dass sich die Schärfentiefe 2er Bilder mit gleichem Bildausschnitt von a) APS-C und b: Kleinbild unterscheiden, weil das APS-C-Bild ja stärker vergrößert werden müsse.

Dadurch hätte APS-C sogar eine geringere Tiefenschärfe, da man stärker vergrößern müsse, um ein gleich großes Bild zu bekommen wie bei Kleinbild.

Das ist in der Tat ein interessantes Thema, aber nicht in diesem Thread, bitte, sonst haben wir hier bald wieder die gleiche Konfusion wie im vorigen. Hier sollte es nur um Bildgröße gehen. Ich hoffe auf dein Verständnis.

R.
 
Hallo,
ich nehme an du gehst von Endergebnis, also vom fertigen Bild\Poster aus?

Den Unterschied rein beim Sensor merkst du in der Regel ...
Gruß
Wolfram

Auch dich möchte ich bitten, das Thema nicht auf weitere (wenn auch interessante) Gebiete auszuweiten. Hier soll es nur um das Verständnis digitaler Fotografie im Unterschied zu analoger gehen, genauer um die Frage, ob Bilder unterschiedlich großer Sensoren dennoch gleich groß sein können.

Ein Digitalbild an sich hat keine Grösse, sondern nur Pixel. Es ist dimensionslos.

Die Grösse kommt erst bei der Ausgabe ins Spiel.
Hier entscheiden die gewünschten DPI ( Dots per Inch ) und die Grösse, wieviele Pixel das Bild haben muss, um den Anforderungen hinsichtlich Auflösung und Abmessung zu entsprechen.

Die Sensorgrösse spielt hier in der Tat keine Rolle, sondern nur die Pixelzahl des Originals.

Das ist zumindest mein bisheriges Verständnis.

Ich hatte schon befürchtet, ich wäre allein auf weiter Flur! :)
 
Also wenn ein 20mp Sensor ein bild aufnimmt dann hat es 20mp. Egal wie groß drr Sensor ist. Alle anderen Faktoren sollen ja nicht beachtet werden. Demzufolge ist die Bildgröße gleich. Ist doch eigentlich eine ganz simple rechnung...
 
In der Diskussion geht es darum, dass User masi seit jeher behauptet, dass sich die Schärfentiefe 2er Bilder mit gleichem Bildausschnitt von a) APS-C und b: Kleinbild unterscheiden, weil das APS-C-Bild ja stärker vergrößert werden müsse.

Das behauptet nicht nur "User masi" (ich heiße übrigens Matthias und unterschreibe so auch jeden meiner Beiträge), sondern es ist Allgemeingut und nennt sich "fotografische Äquivalenz".

Und zur Frage selbst: Ich sehe nicht den geringsten Anlass, hier Pixel zu zählen. Ein Bild hat eine Ausgabegröße von bspw. 1,0x1,5m² und es hat eine Aufnahmegröße von bspw. 24x36mm². Zwischen den beiden gibt es ein Größenverhältnis und das heißt Vergrößerung.

Mit wievielen Pixeln das Bild abgetastet wurde, ist vollkommen nebensächlich. Mich interessiert bei Chopins Minutenwalzer auch nicht, ob er mit 32kHz, 44,1kHz oder 48kHz abgetastet wurde (was natürlich unterschiedliche Datenmengen erzeugt), solange er 1 Minute dauert. Wenn jemand ihn mit 8kHz gesamplet über sein Walkie-Talkie überträgt, mag ich das nicht mehr hören, aber auch da ist er 1 Minute lang.



Gruß, Matthias
 
Nehmen wir mal an die einzelnen Pixel sind (unabhängig von ihrer Größe, die sich ja bei gleicher Pixelanzahl und unterschiedlicher Sensorgröße ändert) gleich gut was die Messgüte angeht. In dem Fall wird das auftreffende, analoge Bild, das von Objektiv auf den Sensor projeziert wird, von beiden Sensoren gleich genau erfasst. Wir können also einen Unterschied in der Messgenauigkeit ausschließen.

In der Realität ist das nicht ganz zutreffend, da ein größerer Pixel ein Signal sauberer erfasst, als ein kleinerer, aber das ignorieren wir an der Stelle mal.

Kommen wir zum analogen Bild, dem, was das Objektiv auf den Sensor zaubert: Je kleiner der Sensor ist, desto mehr nehmen dessen Pixel die optischen Fehler wahr. Das auftreffende analoge Bild limitiert in dem Fall die Bildqualität. Hier hat ein großer Sensor Vorteile, da Einflussfaktoren wie Fehlfokus, Beugung, Verwackler etc. eine weniger größe Rolle spielen.

Die "Tabelle" in der nun die einzelnen Pixelwerte abgebildet werden ist nur ein Träger für die Bildinformationen, die für jeden einzelnen Pixel zur Verfügung standen und damit ein Abbild des analogen Bildes. Das Abbild des analogen Bildes drucke ich nun aus oder zeige es auf einem Monitor. Da die "Tabelle" nur ein Abbild des analogen Bildes ganz vom Anfang ist, kann ich diesen Schritt eigentlich ignorieren, es war nur eine Bildwandlung, ein Zwischenschritt. Ich habe ein analoges Ausgangsbild (das auf dem Sensor) und wandel es in ein Ausgabebild um (Druck oder Monitor), wie ich das mache, spielt keine Rolle. Ist das Ausgangsbild kleiner muss ich mehr vergrößern um die gleiche Ausgabegröße zu bekommen.
 
Meine - zugegebenermassen manchmal (bewusst) hemdsärmligen - Vergleiche im geschlossenen Thread zielten doch genau darauf ab:

Auch wenn die Zahlentabelle meinetwegen dimensionslos ist, so hat die darin gespiecherte Information in sich (!) einen unterschiedlichen Informationsgehalt, wenn sie mit grosser (oder eben kleiner) Fläche aufgenommen worden ist.

Sei der Sensor klein, so wird das Rauschen stärker - und das bleibt in der Zahlentabelle erhalten.

Das Beispiel, das Matthias gebracht hat (und ich etwas verballhornt habe, um zum Denken anzuregen) aus der Musik sollte mithelfen:

Nimm ein Musikfile des selben Lieds, 4 min lang, einmal mit 128 kBit/s und einmal mit 256 kBit/s aufgezeichnet - die Nullen und Einsen des Speicherformats sind dimensionslos. Dennoch dauert das zweite Stück nicht doppelt so lang. Die Aufzeichnungsrate muss doch beim Abspielen berücksichtigt werden!
 
Das behauptet nicht nur "User masi" (ich heiße übrigens Matthias und unterschreibe so auch jeden meiner Beiträge),

Das ist schön, Matthias, aber hätte ich Matthias geschrieben hätte die Leute eher gefragt welcher Matthias als wenn ich "User masi" schreibe. Darum nenne ich in Foren immer den Forumsalias, wenn ich auf den User referenziere.
Dass ich in der Eile zu faul war, die richtige Nummer 1157 zu suchen, ist natürlich ein Fehler, den du mir hoffentlich nachsiehst.

Ich habe auch zum Thema keine Meinung vertreten, sondern nur angeführt, was ich dachte, was der TO hier zum Thema macht und mit dir diskutieren will, darum ist auch dein angriffiger Stil mir gegenüber völlig Fehl am Platze.
 
Zuletzt bearbeitet:
Und zur Frage selbst: Ich sehe nicht den geringsten Anlass, hier Pixel zu zählen. Ein Bild hat eine Ausgabegröße von bspw. 1,0x1,5m² und es hat eine Aufnahmegröße von bspw. 24x36mm². Zwischen den beiden gibt es ein Größenverhältnis und das heißt Vergrößerung.

Mit wievielen Pixeln das Bild abgetastet wurde, ist vollkommen nebensächlich. Mich interessiert bei Chopins Minutenwalzer auch nicht, ob er mit 32kHz, 44,1kHz oder 48kHz abgetastet wurde (was natürlich unterschiedliche Datenmengen erzeugt), solange er 1 Minute dauert. Wenn jemand ihn mit 8kHz gesamplet über sein Walkie-Talkie überträgt, mag ich das nicht mehr hören, aber auch da ist er 1 Minute lang.

Gruß, Matthias

Irgendwo ist hier noch immer ein Missverständnis, ich weiß nur nicht genau, wo.
Wenn wir bei deinem Beispiel der Abtastraten bleiben: Ich sage ja - im übertragenen Sinne - gerade, dass zwei unterschiedliche Medien, die jeweils mit x Informationseinheiten pro Sekunde abtasten, dasselbe Musikstück auf einem Abspieler auch genau gleich wiedergeben, wenn wir die Qualität des Aufnahmeprozesses (Mikrofone etc.) mal unbeachet lassen.

Auf dem Sensor exisitert kein Bild. Auf dem Film existiert ein Bild - als Negativ. Seine Abmessungen sind für immer und ewig 24x36 mm. Wollen wir davon Bilder erstellen, müssen wir es vergrößern. Das digitale Bild entsteht aber erst mit der Ausgabe. Es hat, wie blaubaer65 richtig sagt, keine Dimensionen außer seinen Pixelmaßen - und das sind keine absoluten Maße, sondern eine Informationsmengen-Angabe. Die Größe des Bildes wird bestimmt durch die Größe der Monitorpixel oder des Druckrasters - und der zur Verfügung stehenden Pixel.
Es tut mir Leid, aber zur Klärung dessen, was ich meine, sind Pixel unverzichtbar.

Gruß
Rontrus
 
Zuletzt bearbeitet:
Meine - zugegebenermassen manchmal (bewusst) hemdsärmligen - Vergleiche im geschlossenen Thread zielten doch genau darauf ab:

Auch wenn die Zahlentabelle meinetwegen dimensionslos ist, so hat die darin gespiecherte Information in sich (!) einen unterschiedlichen Informationsgehalt, wenn sie mit grosser (oder eben kleiner) Fläche aufgenommen worden ist.

Das sehe ich - fast - genauso, wenn auch das Entscheidende fehlt.
Die Informationsqualität ist in der Tat unterschiedlich, die Informationsmenge aber nicht. Deshalb sind beide Bilder gleich groß - aber nicht gleich gut. Nicht die aboslute Fläche ist - für die Größe und nur hierfür - entscheidend, sondern die Zahl der Informationseinheiten pro Fläche.

Nimm ein Musikfile des selben Lieds, 4 min lang, einmal mit 128 kBit/s und einmal mit 256 kBit/s aufgezeichnet - die Nullen und Einsen des Speicherformats sind dimensionslos. Dennoch dauert das zweite Stück nicht doppelt so lang. Die Aufzeichnungsrate muss doch beim Abspielen berücksichtigt werden!

Siehe hierzu meine Antwort an Masi1157.

Gruß
Rontrus
 
Die Aufzeichnungsrate muss doch beim Abspielen berücksichtigt werden!

Bei Audio-Aufzeichnungen ist das zwingend notwendig, denn "unser Ohr" kann mit einem doppelt oder halb so schnell abgespielten Stück nichts anfangen. Anders "unser Auge", das kann Bilder in groß oder klein und von nah oder fern betrachten und damit "etwas anfangen". Und deshalb wird die Abtastrate in Audio-Dateien gespeichert, in Bild-Dateien aber nicht, denn das ist gar nicht nötig.

Trotzdem werden wir zwischen 2 gleich groß betrachteten und gleich belichteten Bildern (die Pixelzahl ist egal, aber wer es unbedingt braucht, darf sich gleiche Pixelzahlen vorstellen) von deutlich unterschiedlich großen Sensoren Unterschiede sehen. Und zwar in Detailauflösung, Rauschen, Dynamik, Farbtiefe, Schärfentiefe/Freistellung, Beugung usw. usf. Durch äquivalente Belichtung, wo die denn möglich ist, kann man einige der Effekte egalisieren, andere nicht. Und das tolle: Die Pixelzahl oder -dichte ist völlig egal, solange sie groß genug ist (s. "Walkie-Talkie" weiter oben).


Gruß, Matthias
 
Auf dem Sensor exisitert kein Bild.

Aber selbstverständlich! Zu dem Zweck gibt es schließlich das Objektiv. Oder woher bekommt der Sensor seine Bildinformationen?

Nicht die aboslute Fläche ist - für die Größe und nur hierfür - entscheidend, sondern die Zahl der Informationseinheiten pro Fläche.

Aber ja doch! Die Fläche ist entscheidend, und die Fläche muss nur ausreichend fein abgetastet werden. Mehr nicht.



Gruß, Matthias
 
Trotzdem werden wir zwischen 2 gleich groß betrachteten und gleich belichteten Bildern (die Pixelzahl ist egal, aber wer es unbedingt braucht, darf sich gleiche Pixelzahlen vorstellen) von deutlich unterschiedlich großen Sensoren Unterschiede sehen. Und zwar in Detailauflösung, Rauschen, Dynamik, Farbtiefe, Schärfentiefe/Freistellung, Beugung usw. usf.

Das hat aber auch niemand bestritten, dem TO ging es doch nur um die Pixelzahl / resultierende Bildgrösse bei identischen Ausgabeparametern und die ist identisch.

Problem ist glaube ich, das Masi bei der Projektion ist, und der TO bei den ausgelesenen Daten.
 
Zuletzt bearbeitet:
Trotzdem werden wir zwischen 2 gleich groß betrachteten und gleich belichteten Bildern (die Pixelzahl ist egal, aber wer es unbedingt braucht, darf sich gleiche Pixelzahlen vorstellen) von deutlich unterschiedlich großen Sensoren Unterschiede sehen. Und zwar in Detailauflösung, Rauschen, Dynamik, Farbtiefe, Schärfentiefe/Freistellung, Beugung usw. usf. Durch äquivalente Belichtung, wo die denn möglich ist, kann man einige der Effekte egalisieren, andere nicht. Und das tolle: Die Pixelzahl oder -dichte ist völlig egal, solange sie groß genug ist (s. "Walkie-Talkie" weiter oben).

Dass wir es bei beiden betrachteten Bildern mit unterschiedlicher Qualität zu tun haben, habe ich nie bestritten. Diese Unterschiede entstehen aber nicht durch eine etwaige ungleiche Vergrößerung, sondern durch die Ungenauigkeiten, die durch die Miniaturisierung aller beteiligten Teile entstehen.

Das heißt: Die Pixel (sie sind wirklich unverzichtbar!) der D7100 nehmen nicht dasselbe auf wie diejenigen der D600, auch wenn wir uns mit äquivalenten Brennweiten und ebensolchen Blenden darum bemühen. Wo Unschärfen durch Beugung usw. entstehen, betreffen sie (weil sie sich leider nicht an die Miniaturisierung halten) mehr Pixel als bei der D600. Der Informationsgehalt ändert sich also zuungunsten des kleineren Formats, weshalb wir solche Bilder ungern auf dieselben Maße abziehen lassen wie die einer D600, auch wenn die Pixelmenge es ohne Probleme erlaubte.

Nicht mehr wollte ich sagen.

Gruß
Rontrus
 
Problem ist glaube ich, das Masi bei der Projektion ist, und der TO bei den ausgelesenen Daten.

Die ausgelesenen Daten sind Daten, aber kein Bild. Wenn daraus ein Bild gemacht wird, egal ob auf Papier, Bildschirm oder Leinwand, dann hat das eine Größe. Die Daten sind mir völlig egal, die sind nur Mittel zu Zweck und müssen dafür ausreichend "gut" sein. Wenn mein Minutenwalzer ausreichend gut klingt, darf das mit 32kHz, 44,1kHz, 48kHz oder 96kHz gesamplet worden sein, das ist mir wurscht. Wenn es nur 8kHz waren, reicht es nicht.


Gruß, Matthias
 
[Auf dem Sensor existiert kein Bild, sagt Rontrus] Aber selbstverständlich! Zu dem Zweck gibt es schließlich das Objektiv. Oder woher bekommt der Sensor seine Bildinformationen?

Das eine bedeutet nicht zwangsläufig das andere. Ein Bild auf dem Sensor wirst du mit keiner noch so ausgeklügelten Technik sichtbar machen können (wie das latente Negativ durch Entwicklung). Er registriert bloß: "In der Ecke oben zweite von links Ladungsmenge xy - bitte zusammen mit der Positon abspeichern." Ein Bild macht daraus erst ein Monitor. Anders das Negativ. Das ist das Bild.

Gruß
Rontrus
 
WERBUNG
Zurück
Oben Unten