• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Brennweitenvorteil bei 36 Megapixel

Ich persönlich würde auch von einem optimalen Sensor mit optimaler Optik ausgehen. D.h. die Optik besitzt keinerlei Abbildungsfehler, ist lediglich Beugungsbegrenzt und es herrscht immer gute Sicht.

Ist ja kein Widerspruch, dann überwiegt eben die "Pixelunschärfe" alle anderen Anteile.

Pixel an sich wären dabei wirklich nurnoch etwas was eine Art Flächenmaß darstellt.

Bloß guckt man die "Pixel an sich" nicht an, sondern ein Bild, das eine begrenzte Auflösung hat, warum auch immer. Solange die Auflösung des Auges noch schlechter ist, ist es egal. Löst das Auge mehr auf als das Bild hergibt, wird's unscharf. Auch wieder egal, warum es so unscharf geworden ist.



Gruß, Matthias
 
Statt hier die Grundlagenkenntnisse anderer anzuzweifeln, solltest Du Dich mal ganz massiv mit ein paar mehr Grundlagen als der reinen Pixelzählerei beschäftigen.

Ich kann dir nur - wiederholt - raten, diesen Tipp zu beherzigen, lieber TO. Die Pixelzählerei HEMMT die Einsicht. Drastisch. Überdenke mal alles, was du glaubst, über Bildwiedergabe zu wissen, mit der Annahme eines unendlich auflösenden Mediums. Und welche Fehler DANN sichtbar würden. Und wann.

Dass man sich dann nicht zu weit aus dem Fenster lehnen sollte, wenn selbst die eigene Baustelle (Pixelzählen) nicht genügend verstanden ist, selber Wurzeln zu ziehen...

Aber eben:

Statt hier die Grundlagenkenntnisse anderer anzuzweifeln, ...

Und alles liegt auf dem Silbertablett bereit. Das hier ist erst mal alles, was man verinnerlichen muss. Schön, anschaulich und kurz beschrieben, besten Dank auch:

Dann würdest Du nämlich feststellen, dass die Pixelzahl nichts anderes als eine weitere Quelle von Unschärfe im fertigen Bild ist, ganz genau wie früher die Körnigkeit eines Films und sowieso ganz genau wie Beugung, Abbildungsfehler, Verwackeln, Druckauflösung, atmosphärische Störungen usw. usf. Gemeinsam bestimmen sie die Auflösung des fertigen Bilds. Pixel sind da in keiner Weise anders als die anderen Anteile. Und natürlich begrenzt jeder dieser Anteile die Auflösung fast allein, wenn er viel größer ist als alle anderen zusammen (näherungsweise "per RMS" addiert). Und die Auflösung des fertigen Bilds begrenzt dann das genannte sinnvolle Verhältnis aus Betrachtungsabstand und Ausgabeformat. Wenn man das überschreitet, erscheint das Bild unscharf, egal ob diese Unschärfe durch Verwackeln, Beugungsunschärfe, Pixelzahl oder durch alle zusammen hervorgerufen wurde.

Im Rahmen der kleinen Welt Deines Themas hier spielen Pixel also keine andere Rolle als die anderen Anteile und können einfach unter dem Dach "Auflösung" betrachtet werden. Das "digitale Zeitalter" beginnt erst außerhalb dieser kleinen Welt, und das ist dann doch etwas komplizierter.



Gruß, Matthias
 
Lern also erst mal, was 100%-Ansicht heisst.

gerne wo ?

Sensor Subpixel Bayer RGGB also 20 Mpix sind eigendlich 5 Mpix (/4) oder wenn man freundlicher ist 6 Mpix (/3) aufgeblasen zu 20 Mpix ist es ja eigendlich nur Interpolation, Monitor RGB Pixel full HD 2 Mpix = 6 Mpix RGB (x3)

was aber wenn der Sensor tolle 36 Mpix bringt, die aber nativ nur zu 12-9 Mpix zählen (Bayer RGGB zu RGB Umrechnung), was ist wenn keine Linse diese Auflöung bedienen kann darf ich dann immer noch aus 36 Mpix 12 ausschneiden und auf gleichwertige zu 12 Mpix Qualität rechnen ?

Fragen über Fragen :D:ugly:
 
Wie gross ist die 100%-Ansicht eines Bildes, dass auf Film aufgenommen wurde? Wie gross ist die 100%-Ansicht einer Höhlenmalere? Die 100%-Ansicht eines Baumes, der auf der Heide steht?

Fragen über Fragen. Dabei ist das das einzig relevante...
 
Nach dem Druck. Auf Fotopapier, Leinwand, Monitor... egal. Und selbst wenn du das Negativ nimmst - aus welcher Entfernung schaust du drauf?
 
Ist ja kein Widerspruch, dann überwiegt eben die "Pixelunschärfe" alle anderen Anteile.
Ich würde einen Schritt weitergehen. Wie dir sicher aufgefallen ist habe ich in der Beschreibung des Idealsensors keine Pixel erwähnt. Diese sind auch vollkommen überflüssig, was wir eigentlich wissen wollen ist:
Wo ist ein Photon auf der Sensoroberfläche aufgeschlagen (Ortsvektor x) und welche Energie (lambda = h / p).
Wie genau wir das bestimmt können schreibt uns die heisenbergsche Unschärferelation, hier in Form von delta x * delta p >= h, vor.
Pixelunschärfe verschwindet hier also auch - wir schauen nur drauf was >idealerweise< machbar wäre an den Grenzen die uns die Physik liefert. (*)

Bloß guckt man die "Pixel an sich" nicht an, sondern ein Bild, das eine begrenzte Auflösung hat, warum auch immer. Solange die Auflösung des Auges noch schlechter ist, ist es egal. Löst das Auge mehr auf als das Bild hergibt, wird's unscharf. Auch wieder egal, warum es so unscharf geworden ist.
Ja. Als Flächenmaß meine ich das man Pixel einfach als Maßeinheit nehmen kann, eben ohne jede weitere Bedeutung.
Es ist eben einfacher zu sagen "Ich schneide aus einem 20 MP Bild ein 5 MP Bild herraus", als zu sagen "Ich schneide aus 400 mm² Sensorfläche ein Bilde herraus welches 100 mm² Sensorfläche entspricht".


(*) Für Leute, doch liebe in Pixel denken, wäre das einfach ein Sensor deren Pixelgröße fest, aber beliebig klein gewählt werden kann - wir uns also immer weit weg von der "100%" Grenze befinden. (Epsilon größer Null, anyone?)

criz.
 
Ich würde einen Schritt weitergehen. [...]

Der Schritt, den Du gehen musst, ist, die Pixelgröße als kleinste sinnvolle Flächeneinheit zu sehen. Solange Dein Auge schlechter auflöst, werden eben größere Flächen vom Auge gemittelt. Und dann ist es egal, ob es über wenige oder viele Pixel mittelt, entscheidend ist die Fläche. Und keine Sorge! Ich denke nur in Pixeln, wenn ich muss, und dann eher im Fourier-Raum.


Gruß, Matthias
 
Huhu Ihr,
ich habe den Thread jetzt nur kurz überflogen , aber weiß nicht obs schon gesagt wurde , die Sony HX100V hat 2 Einstellmöglichkeiten im Digi-zoom,crop oder digital zoom.
Beim crop kann man anstatt 30xoptisch zoom auf glaub 57optisch+digizoom gehen hat dann aber nur noch 5mp anstatt 16mp !
das ganze nennt sich bei Sony Smart-zoom.
Die Cam hat aber auch die Funktion auf 120x zu zoomen aber dann digital und bleibt bei den 16mp.

hab da mal ein paar tests mit gemacht , einmal mit 120x dann mit 30x optisch und einmal mit den 57xoptisch+digital.

Wenn ich mit dem 30xoptisch bild den gleichen Ausschnitt festlege wie beim 120x digital sieht man doch schon gewaltige Unterschiede !
der 57x zoom hingegen ist wirklich der gleiche als würde ich das 30xoptisch einfach am PC cropen !

hab mal 3 bilder zugefügt , links der normale optische 30xzoom , dann einmal nen ausschnitt vom auge , links der digi zoom , rechts der crop.
 
Zuletzt bearbeitet:
ich kann mir vorstellen, daß man erst verständnis über folgendes aufbringen - müßte, um zu verstehen, was da einer - anders als die anderen - unter verkleinerung, vergrößerung und 100% samt pixeln verstehen könnte :-)

sagen wir, wir haben ein bild aus l x b = 10x10 pixeln.
schneide ich jetzt jeweils in längsrichtung 5 pixeln weg und ebenso in richtung breite 5 pixel weg, dann bleiben 5 x 5 pixel übrig, und das ist ein crop 2 oder digitalzoom 2 oder verkleinerung 2 (oder doch 4? :-) ).

zurück zu den 10x10 pixeln.
vergrößere ich jetzt das aus 10x10 pixeln bestehende bild auf 20x20 pixel, womit fülle ich diese neuen pixel? das bild bestand ja nur aus 10x10 pixeln - es gibt jetzt die möglichkeit, diese neuen 30? (nein, 300!!) pixeln mit schwarzer farbe zu füllen, oder mit irgendwas erfundenem. da ist dann eine vergrößerung um den faktor 4, also crop 0.5. und natürlich ein qualitätsverlust :-)

tja, das ist das grundprinzip der pixel, welche die grundlage der digitaltechnik darstellen :-)

ok. noch was. was ist also die 100% ansicht? klar die, wo man alle 10 x10 pixel auf einmal sieht :-) also nicht die, wo jeweils 5 längs und 5 hoch weggecroppt sind (oder wurden doch ganze 5x5 pixel weggeschnitten?) und natürlich auch nicht die, wo jeweils 10x20 plus 10x10 schwarze oder bunte dazuerfunden wurden.


oh, ja, un dich weiß nicht, ob man da über pixel am papier, am kamera-display, am bildschirm oder sonstwo reden muß, denn die am sensor sieht man ja nicht :-)

seht das mal aus dieser warte, und ich denke, ihr versteht dann manchen gedanken, auch falls der kein richtiger ist :-)

viel spaß noch!
lg gusti
 
Zuletzt bearbeitet:
ich kann mir vorstellen, daß man erst verständnis über folgendes aufbringen - müßte, um zu verstehen, was da einer - anders als die anderen - unter verkleinerung, vergrößerung und 100% samt pixeln verstehen könnte :-)

sagen wir, wir haben ein bild aus l x b = 10x10 pixeln.
schneide ich jetzt jeweils in längsrichtung 5 pixeln weg und ebenso in richtung breite 5 pixel weg, dann bleiben 5 x 5 pixel übrig, und das ist ein crop 2 oder digitalzoom 2 oder verkleinerung 2 (oder doch 4? :-) ).

Du meinst ernsthaft, dass bei einem Foto mit 3456 x 5184 (18 MP) bei der Bildschirmdarstellung (1024 x 768, also ca. 8 MP) die Pixel einfach an den Rändern weggeschnitten werden, so wie in deinem Beispiel? Das kann jetzt nur ironisch gemeint sein, oder? :eek:
 
bitte, erkläre mal ein bißchen, wie du das siehst.

falls ich dich nämlich doch falsch interpretiert habe, dann würde ich gerne wissen, wo ich falsch liege in meiner interpretation deines pixelcropvergrößerungsmodelles.

lg gusti
 
bitte, erkläre mal ein bißchen, wie du das siehst.

falls ich dich nämlich doch falsch interpretiert habe, dann würde ich gerne wissen, wo ich falsch liege in meiner interpretation deines pixelcropvergrößerungsmodelles.

lg gusti

Was genau hast du denn nicht verstanden? Was ein Pixel ist?
 
Du meinst ernsthaft, dass bei einem Foto mit 3456 x 5184 (18 MP) bei der Bildschirmdarstellung (1024 x 768, also ca. 8 MP) die Pixel einfach an den Rändern weggeschnitten werden, so wie in deinem Beispiel? Das kann jetzt nur ironisch gemeint sein, oder? :eek:
-----------
also, wenn ich von 3456 x 5184 jetzt auf 1024 x 768 croppe, was passiert denn dann mit den übrigen pixeln?

und was ist der unterschied zwischen pixelentsprechender motivfläche, sensorpixel, bildpunkt in der digitalen bilddatei, bildschirmpunkt und punkt am ausdruck?
und welchen abstand zueinander haben die bildpunkte der digitaldatei jeweils zueinander in millimetern?
und was liegt dazwischen? leere?
lg gusti
 
Zuletzt bearbeitet:
na, dann sollte wir uns mal drüber einigen, was wir beide und vielleicht auch andere unter "croppen" verstehen.

ich verstehe unter croppen, daß ich die außerhalb des gecroppten bereiches liegenden bildinformationen entweder ignoriere, wegschneide, oder sonstwie aus meinem blick entferne, und nur die innerhalb des gecroppten bereiches liegenden bildinfos nutze, ernte, betrachte oder weiterverarbeite.

und: warum passiert das croppen nicht von alleine? wer muß da in welchem fall was tun? und was muß der jenige tun?
 
Zuletzt bearbeitet:
vergrößere ich jetzt das aus 10x10 pixeln bestehende bild auf 20x20 pixel, womit fülle ich diese neuen pixel? das bild bestand ja nur aus 10x10 pixeln - es gibt jetzt die möglichkeit, diese neuen 30? (nein, 300!!) pixeln mit schwarzer farbe zu füllen, oder mit irgendwas erfundenem. da ist dann eine vergrößerung um den faktor 4, also crop 0.5. und natürlich ein qualitätsverlust :-)

tja, das ist das grundprinzip der pixel, welche die grundlage der digitaltechnik darstellen :-)

Das ist nicht das Grundprinzip der Digitaltechnik, beileibe nicht, sondern das ist so grundfalsch, wie es nur eben falsch sein kann.

Die "Vergrösserung" geschieht nicht, indem dazwischen was "frei erfunden" wird.

Ausserdem, hast du bedacht: du solltest, um das zweite Bild gleich zu betrachten, dann doppelt so weit weg stehen. Dann siehst du aber wieder das gleiche Bild. In gleicher Qualität.

Und, zu guter Letzt: Plural von Pixel ist Pixel. Aber das ist jetzt besserwisserisch. Genauso, wie ein Crop von zwei eine Halbierung der Seitenlänge bedeutet, eine Vergrösserung von 10 auf 20 Pixel Kantenlänge in deinem Modell also einem Crop von 0.5 entspricht - und nicht einem Viertel. Konvention.
 
Zuletzt bearbeitet:
na, dann sollte wir uns mal drüber einigen, was wir beide und vielleicht auch andere unter "croppen" verstehen.

ich verstehe unter croppen, daß ich die außerhalb des gecroppten bereiches liegenden bildinformationen entweder ignoriere, wegschneide, oder sonstwie aus meinem blick entferne, und nur die innerhalb des gecroppten bereiches liegenden bildinfos nutze, ernte, betrachte oder weiterverarbeite.

und: warum passiert das croppen nicht von alleine? wer muß da in welchem fall was tun? und was muß der jenige tun?

Ich fürchte, du machst einen Schritt vor dem anderen, denn ich bin mir nicht sicher, ob du verstanden hast, was passiert, wenn du dir ein 18 Megapixel-Foto auf einem Bildschirm anschaust, dass nur circa 8 Megapixel (1024 x 768) ausgeben kann. Kleiner Tipp: Das ist kein Crop.
 
@ kry 27:
1) , ist mir sehr recht, daß du die offenen fragen jetzt mit eos 550d weiter klärst.
2) die vergrößerung von 10x10 auf 20x20 ist sehr wohl eine vervierfachung (fläche, pixelzahl) und entspricht einem crop von 0.5 (denn die konvention betreffend cropfaktors betrachtet nur eine dimension)

@ eos 550d:
1) aha, du redest also nicht von einem crop. das mußt du aber auch deutlich sagen.
wenn ich 18 mega"pixel" der datei auf 8 millionen bildschirmpunkten anzeigen will, dann verkleinert entweder der grafiktreiber oder die bildbetrachtungssoftware oder beide. und die wenden eine methode von vielen möglichen interpolationsalgorithmen an.
2) wäre aber trotzdem auch nett, wenn du meine fragen betreffend croppens beantworten würdest.
danach könnte kry 27 mit dir dein verständnis von vergrößern klären. und was der unterschied zwischen digitaldateipixelinfo und bildschirm- /druckbildpunkt sein könnte. und was der unterschied zwischen motivpunkt und sensorpixelinfo und digitaldateipixelinfo sein könnte.

und dann sind wir vielleicht so weit, diskutieren zu können, was der unterschied ist zwischen croppen durch einen kleinen sensor, croppen durch bildbeschneidung und was passiert, wenn man die bilder dann gleich groß sehen will wie ein ungecropptes bild mit annähernd gleichem bildinhalt. und was ein digitalzoom macht.

so, kry 27, dann mal los!

gusti
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten