• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Nikon D800/ D800E 36.3 MP/ Ohne AA Filter

"Die Auflösung ist die Fähigkeit eines Messgeräts, physikalische Größen gleicher Dimension voneinander zu trennen" (Megapixel bestehen aus x und y = zwei Dimensionen).

Genau das ist der springende Punkt, den Du nicht kapierst.

Um an Auflösung (oder -tatsächlicher- Information) zu gewinnen, benötigt man die Verdoppelung BEIDER DIMENSIONEN.
 
Was ist den hier los?
Im Canon Forum geht es um db wie leise die 5D Mark III auflöst und machen daraus eine Wissenschaft. Hier ist es nicht groß Anders, da geht es eben um Auflösung.
 
An sonsten könnte man es ja ins extreme treiben und einen Sensor bauen, der nur eine Spalte aber 36 mio Zeilen hat. Hat der dann die 6000 fache Auflösung von einem 6000 * 6000 Pixel Sensor?
 
Eindeutig ein Fall für Galileo Mystery.
 
D700: 12,1MP
D800: 36,3MP.
Ist doch glatt Faktor 3?
Oder übersehe ich irgendwas?

Ja. Lies nochmal Deinen ursprünglichen Post durch.

Wir haben es hier mit Flächen zu tun. Also mußt Du ein Bild der D700 um ca. 170% aufblasen, um auf die Fläche der D800 zu kommen. Andersherum skalierst Du ein Bild der D800 auf ca. 58%, um auf die Fläche der D700 zu kommen.
 
...Wir haben es hier mit Flächen zu tun...

Gut erkannt.

Nun, die Sensorfläche der D800 liefert die 3 fache Information verglichen mit der D700, also wird das Abbild in 3 x mehr Information aufgelöst.

...Also mußt Du ein Bild der D700 um ca. 170% aufblasen, um auf die Fläche der D800 zu kommen. Andersherum skalierst Du ein Bild der D800 auf ca. 58%, um auf die Fläche der D700 zu kommen.

Nun, diese Art der Skalierung bezieht sich auf die Seiten und man hat einen Haken für die proportionale Skalierung gemacht.

Die Fläche und damit die Information ist das Produkt.

Nicht umsonst steht ja für die Bildgröße in den Kameradaten 7360 x 4912 ;)

Ich glaub, wir müssen hier nicht Krümel kacken!

Gruß
ewm
 
Wollte noch mal meine Erfahrung mit Lieferverhalten hier teilen. Ich hatte am 22.2 beim grossen Fluss vorbestellt, bis Do. 29.3, Tag meiner Storno, keinerlei email bezüglich Auslieferung. Aufgrund der Tipps, Händler abzuklappern, hatte ich Mo (26.) beim lokalen Planeten vorbestellt .. und mittwochs den Anruf, kann sie abholen, was ich auch getan habe.
Management von Vorbestellungen scheint beim grossen Fluss etwas merkwürdig zu sein, Do abend oder Fr. waren ja einige auf Lager.
Beim Erscheinen der D200 musste ich Monate warten ... und dann wurde die Bestellung gecancelt, dass ein Händler storniert hatte ich sonst nie.

Bin gespannt wie sich die Situation entwickelt, hoffe wird nicht so schlimm wie bei der D200.
 
Gut erkannt.

Nun, die Sensorfläche der D800 liefert die 3 fache Information verglichen mit der D700, also wird das Abbild in 3 x mehr Information aufgelöst.


Gruß
ewm

Kann es sein, dass man nach über 5000 Beiträgen hier im Forum --grundlegende-- Eigenschaften von Sensoren nicht kennt??

Um die 3fache Information der D700 darzustellen, müsste jeder einzelne Pixel der D700 durch 9 Pixel der D800 dargestellt werden.



Edit:

Noch eine bildliche Erklärung....

Stell Dir vor, Du fotografierst mit der D700 ein weißes Blatt Papier, wo zwei parallele Linien von oben nach unten durchlaufen. Die sind so nah zusammen, dass sie --gemeinsam-- genau auf ein Pixel der D700 passen.

Du siehst auf dem fertigen Bild ....richtig.... einen einzigen Strich (anstelle von 2).

Jetzt nimmst Du die D800 und fotografierst das Blatt nochmals.

Angenommen, die D800 hätte 48 Megapixel (was sie aber nicht hat- sondern nur 36), würdest Du auf dem fertigen Foto anstelle der einzelnen Linie alle zwei Linien sehen....die Auflösung hätte sich verdoppelt.

Wären auf dem Blatt Papier 3 Linien gewesen, hättest Du die trotzdem nicht gesehen, sondern nur 2. Um auch die 3. Linie zu sehen, müßtest Du die Auflösung der D 700 verdreifachen (auf insgesamt 108 MP).
 
Zuletzt bearbeitet:
Kann es sein, dass man nach über 5000 Beiträgen hier im Forum --grundlegende-- Eigenschaften von Sensoren nicht kennt?...

Diese Polemik kannst Du Dir sparen. Sie ändert in diesem Fall nichts zu Deinen Gunsten!

...Um die 3fache Information der D700 darzustellen, müsste jeder einzelne Pixel der D700 durch 9 Pixel der D800 dargestellt werden...


Das ist schlichtweg falsch:

- ein RAW (NEF) der D700 entwickelt ergibt als 16Bit-Tiff 70.873 kB
- ein RAW (NEF) der D800 entwickelt ergibt als 16Bit-Tiff 212.206 kB

Was ist Information sonst als die Zahl der verfügbaren Daten?

Der Informationsgehalt von Fotos der D800 zu Fotos der D700 beträgt 3:1.

Dazu braucht die D800 nicht 9x soviel Pixel wie die D700). Es reichen die 3fache Anzahl.

Kann es sein, dass Du so daneben liegst :confused:

Gruß
ewm
 
Zuletzt bearbeitet:
Die DATENMENGE ist richtigerweise 3x höher.....diese enthält aber nur eine geringe Menge an MEHRINFORMATION.

Der INFORMATIONSGEHALT dieser Daten ist aber nur 1,7x höher.


Sorry, wenn ich polemisch rüberkam....aber irgendwie zieht mir so eine Diskussion über Dinge, die "idiotensicher" dargestellt werden (und wissenschaftlicher -praktischer wie theoretischer- Fakt sind), und es irgendwie noch immer einige nicht begreifen, den Nerv.

Wenn Du es durch Lesen nicht verstehen kannst, zeichne Dir mein vorhergehendes Beispiel auf ein Blatt Papier auf....
 
Die DATENMENGE ist richtigerweise 3x höher.....diese enthält aber nur eine geringe Menge an MEHRINFORMATION.

Der INFORMATIONSGEHALT dieser Daten ist aber nur 1,7x höher.


Sorry, wenn ich polemisch rüberkam....aber irgendwie zieht mir so eine Diskussion über Dinge, die "idiotensicher" dargestellt werden (und wissenschaftlicher -praktischer wie theoretischer- Fakt sind), und es irgendwie noch immer einige nicht begreifen, den Nerv.

Wenn Du es durch Lesen nicht verstehen kannst, zeichne Dir mein vorhergehendes Beispiel auf ein Blatt Papier auf....

Kapier ich grad auch nicht, dann sind 200qm nicht doppelt soviel wie 100qm fläche, als beispiel?
 
Stell es dir folgendermaßen vor:
Um einen schwarzen Punkt sehen zu können, brauchst du links und recht und oben und unten einen weissen. Wenn du nun doppelt so viele Schwarze Punkte haben willst wirst du folglich vier mal so viele weisse brauchen.
 
Was ist Information sonst als die Zahl der verfügbaren Daten?

Eine Datenmenge sagt nichts über die Information aus.

Wenn Du einen schwarzen Punkt fotografierst, ist es egal, ob Du 1MP oder 100MP Auflösung hast. Die Information ist da wie dort 1 Punkt. Du hast aber die hundertfache Datenmenge, jeweils mit einer Information.


Der Unterschied kommt erst dann zum tragen, wenn bspw. als 5 Millionen Punkte auf dem Foto sind.

Dann reichen die 1MP nicht mehr aus, um die einzelnen PUnkte zu trennen.

Auf dem 100MP Foto wirst Du die 5 Millionen Punkte darstellen können.

Sind jetzt aber mehr als 100 Millionen Punkte auf dem Bild, hast Du wieder die gleiche Information (Auflösung) wie auf dem Bild mit 1MP.
 
Ich kapier zwar warum du sagst das jede seite eines bildes 3mal länger werden müsste, aber das wäre doch nur die berechnung der fläche?

Aber 1pixel ist 1pixel und 36millonen davon sin 3mal mehr als 12mio. Also hat das bild trotzdem 3mal mehr bilpunkte als das 12mp bild :confused:

Aber irgendwie ja auch unwichtig :)
 
Die Fläche kommt überhaupt nicht zum Tragen, da sie in beiden Fällen identisch ist.

Beide Sensoren sind 24x36mm groß.

Auf dieser (identischen) Fläche sind aber 3x so viele Bildpunkte. ....Die einzelnen Punkte sind daher kleiner.

Weil die einzelnen Punkte kleiner sind, können sie --auf der gleichen Fläche--auch mehr Information aufnehmen.

Wie viel mehr Information sie darstellen kann, ergibt sich aus der relativen Pixelgröße:

D700 4256:D800 7360=0,57

Das bedeutet, dass die Pixel der D800 etwa nur halb so groß sind, wie die der D700. Es können also ..theoretisch.. anstatt einer Linie ---auf gleicher Fläche---
zwei Linien aufgenommen werden.


Die Auflösung hat sich also --knapp-- verdoppelt.
 
Zuletzt bearbeitet:
Ich lese, staune und wundre mir. Ich lese Beitrag um Beitrag und fasse es nicht.

Das ist eine der wohl seltendämlichsten Streitereien, die mir hier in letzter Zeit begegneten. Eine nutzlose absurd-gegenstandslose Streitdiskussion die nur den Streit zum Zweck hat! Das ist als wenn sich zwei Personen streiten, von denen einer sagt, daß, das Brett 4 Meter lang ist und der andere meint, nee, es hat ein Volumen von 0,05 m³. Also wird von der ersten Person vorgetragen, daß es doch aber Hartholz ist und die andere Person entgegnet, daß das keine Rolle spielt, weil es furniert ist. :ugly:

Tut doch nicht so, als ob ihr nicht wüßtet, was der andere meint und auch nicht, daß ihr euch nicht im Klaren darüber seid, daß jeder aus seiner Perspektive recht hat.

Ich war schon drauf und dran, die Dimensionszahl grundsätzlich in Frage zu stellen, weil der Anfang eines jeden Pixels nur der dimensionslose Meßwert einer Fotodiode auf einem Bildsensor ist. Weiterverarbeitet in andere dimensionslose Nullen und Einsen. Gemessen wird quasi die Anzahl der eintreffenden Photonen und bei denen wird die Frage nach den Dimensionen noch lustiger. Obendrein ist die erfaßte Photonenzahl dank lückenloser Mikrolinsen auf den Photodioden unabhängig von der Sensorauflösung. Es stellt sich dann auch schnell die philosophische Frage, ob Photonen eine Seele besitzen und wir durch deren Einfangen und vernichten (Kollision mit dem Bildsensor) einen Akt der Barbarei verüben, wenn wir Milliardenfach Photonen abmurksen. Können wir das mit intensivem Einsatz von Blitzlicht wenigstens teilweise wieder gut machen? Werden wir dafür in der Hölle flambiert oder im Himmel tiefgefroren? Und kann eine Seele überhaupt flambiert oder tiefgefroren werden?

Ich fasse den letzten Absatz zusammen: Hört bitte auf mit dem Quatsch! :lol:
 
...Wenn Du es durch Lesen nicht verstehen kannst, zeichne Dir mein vorhergehendes Beispiel auf ein Blatt Papier auf....

Dein Beispiel hinkt, weil Du damit voll in die Abtastproblematik reinschlitterst.

Solche Gedankenspiele führen zu nichts.

Selbst wenn kein Filter vorgeschaltet wäre, würde eine zur Hälfte oder zu einem Drittel den Sensor abdeckende Linie dem analogen Sensor noch einen Wert liefern, statt einer Ja-Nein- Entscheidung, wie Du sie beschreibst.

Wie gesagt, da wird gefiltert, analog gemessen und dann digitalisiert.

Das von Dir genannte Beispiel ist eine binäre Ja-Nein- Entscheidung, aber nicht geeignet als Modell für die Abtastung durch einen Sensor bzw. den Vergleich von Sensoren.

Gruß
ewm


PS: Ich bleibe dabei, die mögliche Information hat sich verdreifacht. Wir reden hier von einer 2 dimensionalen Matrix, nicht von einer Spalte oder Zeile
 
Zuletzt bearbeitet:
@Frosty

Ich glaube nicht, dass es "dämlich" ist, eine Behauptung widerlegen zu wollen, die sinngemäß behauptet, dass eine Kamera Dank 3facher Pixelmenge die 3fache Auflösung hätte.

Das könnte so manchen zu sehr irrigen Ansichten verleiten.

Denn würde man der Theorie der "Anhänger der 3fachen Auflösung" folgen, so hätte die D800 eine theoretische Auflösung von rund 4200LP/Bildhöhe....was zwar schön wäre, aber halt nicht den Tatsachen entspricht (nämlich nicht mal annähernd).
 
Ich glaube nicht, dass es "dämlich" ist, eine Behauptung widerlegen zu wollen, die sinngemäß behauptet, dass eine Kamera Dank 3facher Pixelmenge die 3fache Auflösung hätte.
Solange beide Seiten unter dem Begriff Auflösung etwas unterschiedliches verstehen, weil sie aus unterschiedlichen Perspektiven an die Frage heran gehen, ist es sinnlos. Die einen sehen die Pixel in einer Dimension, die nächsten in zwei Dimensionen, zählen aber gleichzeitig nur Linien in einer Dimension bei der Berechnung der Bildinformationen. Die Nächsten Zählen Bits und Bytes und es wird nicht lange dauern bis der Erste anfängt, mit der Farbtiefe zu kommen und alle Berechnungen über den Haufen wirft und mathematisch beweisen wird, daß ein Sensor mit 10 MP @ 14 Bit über mehr Auflösung oder Bildinformationen verfügt als einer mit 15 MP @ 12 Bit. Höchste Zeit, diese Diskussion in den Fototalk auszulagern, weil sie lediglich Unterhaltungswert besitzt. Hier werden keine Irrtümer aufgeklärt, sondern Philosophien vorgetragen.
 
WERBUNG
Zurück
Oben Unten