• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Blende und Beugung

chatvirus

Themenersteller
Seltsamerweise habe ich zum Thema jetzt nicht weiter gefunden, dabei muss das doch schonmal jemand gestellt haben. Nagut, tu ichs eben.

Wenn wir eine leuchtende Glühbirne fotografieren und 1/100 Sekunde belichten, dann erhalten wir, wie wir alle wissen, bei einer Blende von 3,5 ein helleres Bild als bei einer Blende von 8.

Nun frage ich mich aber wieso das so ist.
Die Glühbirne leuchtet in alle Richtungen. "Einer" der Lichtstrahlen erreicht nun das Objektiv, wodurch die Glühbirne also abgebildet werden kann.
Wenn die Blende kleiner gestellt wird (Nehmen wir an sie sitzt vor der Optik, wie es meistens ja der Fall ist) dann müsste meiner Logik nach ein Teil des Bildes abgeschnitten werden. Der Rand müsste in meiner Welt einfach schwarz erscheinen - Tut er aber in eurer Welt nicht ;)


Desweiteren habe ich auch ein Verständnisproblem bzgl. der Lichtbeugung.
Behalten wir die Glühbirne und bauen zwischen Objektiv und Glühbirne eine kleine Mauer auf.
Wenn wir über die Mauer schauen sehen wir noch die Spitze der Glühbirne.
Nun ist es aber wohl so, daß der Lichtstrahl an der Mauer abknickt und auch wieder ein Stück nach unten Strahlt.
Ist der der Grund, weswegen der Schatten der Mauer unscharf erscheinen würde?
Ich habe das zur Verdeutlichung nochmal visualisiert und an diesen Beitrag angehangen.
 
In Deiner Betrachtung fehlt die Abbildung des Objektives (Linse)

Die Linse Bildet einen Punkt im Objekt auf einen Punkt auf den Film ab.
D.h. alles Licht welches von diesem Objektpunkt auf die Linse fällt wird von der Linse im Bildpunkt fokussiert (wenn richtig scharf gestellt wurde).
Wenn die Linse kleiner ist sammelt sie weniger Licht, wenn sie größer ist sammelt sie mehr und das Bild wird heller. Die Blende ist jetzt nichts weiter als eine mechanische Einrichtung die Linse kleiner zu machen...
Dabei ist die größe des Bildes nicht von der Größe der Linse abhängig, auch eine kleine Linse kann ein großes (aber dunkles) Bild machen.

Grüße!
 
Ja aber es kann doch nur das Licht gesammelt werden was auch ankommt.
Wenn die Blende kleiner wird, dann hat das ja offenbar zur Folge, daß ein Teil des Lichts dieses Objektpunkts ausgesperrt wird.
Da frage ich mich aber was das Licht des Objektpunkts außerhalb des Bildes zu suchen hat.

Anders ausgedrückt (Nur mal theoretisch betrachtet): Du stellst die Kamera auf ein Stativ und fokusierst ein Motiv von dem du dir einen bestimmten Punkt in der Bildmitte aussucht.
Dann kannst du dir einen Stift nehmen und auf das Objektiv einen Punkt malen an genau der Stelle wo das Licht dieses Objektpunkts eintrifft.
Nun nimmst du dir ein Stück Alufolie spannst diese vor das Objektiv.
In die Alufolie machst du ein Loch in der Bildmitte - Also an der Stelle wo du den Punkt gezeichnet hast.
Wenn du nun durch die Kamera schaust siehst du dein Motiv mit dem Objektpunkt und dem Punkt den du auf das Objektiv gemalt hast - Aber das Bild ist dunkler.
Dabei wurde doch das Licht, meiner Logik nach, gar nicht ausgesperrt.
Lediglich irgendein fremdes Licht, was von der Seite kommt bzw. am Bildrand liegt wurde ausgesperrt.
 
Du hast ein falsches Verständnis von Optik ;)

Erstmal hast du nicht nur einen engen Lichtstrahl, sondern ein ziemlich breites Bündel, wie in dieser Grafik bei Wikipedia dargestellt:

http://de.wikipedia.org/wiki/Bild:Sammellinse.png

Stell dir vor du hast eine Kerze, eine Linse die über eine Blende in der Größe verändert werden kann, und dahinter den Bildsensor. (Ich gehe mal von einer einzelnen Linse aus.)
Das Licht von einem Punkt an der Kerze leuchtet auf die ganze Fläche der Linse und wird in einem Punkt auf dem Sensor gebündelt. Wenn man jetzt die Linse zu 2/3 mit der Blende abschattet, dann verringert sich die Helligkeit der Kerze auf dem Sensor auf 1/3, da 2/3 des Lichts von der Blende aufgehalten werden.

Bei Punkten, die nicht in der Bildmitte liegen, ist es genau das gleiche. Das Licht fällt schräg auf die Linse, und wird dann in einem Punkt gebündelt der z.B. am Rand vom Sensor liegt. Auch hier kann man mit der Blende die Lichtmenge regeln, die durchgelassen wird.

Deine Überlegung würde in etwa stimmen, wenn du von hinten in das Objektiv hineinschauen würdest, denn dann siehst du wie die Blende die Außenbereiche der Linse abschattet. Das ist aber was völlig anderes als wenn ein Sensor hinter dem Objektiv liegt.

Gruß
 
Dein Beispiel mit dem Punkt und der Alu-Abdeckung würde dann funktionieren, wenn nur ein Photon hindurchpaßt und bei Deinem Blendendurchmesser auch nur ein Photon eingesammelt wird. Aber das wäre graue Theorie, abgesehen davon dass nach den Regeln der Quantenphysik bei so extrem kleinen Maßstäben nicht einmal genaue Vorhersagen getroffen werden können, wie sich das Photon bewegt. Es bleibt also, auch bei kleinen Löchern, immer ein sehr großer Strahl von Photonen, die je nach Blendenöffnung in größerer oder kleinerer Anzahl von dem Objektiv eingefangen werden.

Die Unschärfe des Schattenrands hinter der Mauer hat nichts mit der Beugung zu tun. Wäre es so, wäre der ganze Schatten leicht versetzt (gebeugt), der Rand aber bliebe scharf. Real liegt die Randunschärfe des Schattens eben auch wieder daran, dass kein Lichtkanal gegeben ist, durch den sich nur ein Photon hinter dem nächsten auf exakt gleicher Bahn bewegt. Selbst im Laserlicht streuen die Bahnen der Photonen; zudem ist die Mauerkante bei genauer Betrachtung alles andere als gerade, ist vielmehr im Vergleich zum winzigen Photon eine wild gezackte Linie wie eine Bergkette.

M-A
 
Dann kannst du dir einen Stift nehmen und auf das Objektiv einen Punkt malen an genau der Stelle wo das Licht dieses Objektpunkts eintrifft.

Hier liegt der Fehler in Deinem Gedankenexperiment:
Von jedem Objektpunkt wird Licht in jede Richtung des Raumes gestreut, und alles Licht welches vom Objektpunkt ausgeht und irgendwo auf die Linse fällt wird auf den Sensor fokussiert.
Das Licht von allen Bildpunkten geht gleichzeitig Durch die ganze Linsenfläche, man kann nicht einen bestimmten Punkt der Linse einem bestimmten Bildelement zuordnen.
Guck Dir vielleicht das hier auch mal an:
http://de.wikipedia.org/wiki/Optische_Abbildung
 
Deine Überlegung würde in etwa stimmen, wenn du von hinten in das Objektiv hineinschauen würdest, denn dann siehst du wie die Blende die Außenbereiche der Linse abschattet. Das ist aber was völlig anderes als wenn ein Sensor hinter dem Objektiv liegt.

Gruß


Verändert sich das Licht abhängig davon, was hinter der Linse liegt? Oder anders gefragt, warum sollte es völlig anders sein, ob ich mit dem Auge oder mit dem Sensor durch das Obektiv schaue?
 
Verändert sich das Licht abhängig davon, was hinter der Linse liegt? Oder anders gefragt, warum sollte es völlig anders sein, ob ich mit dem Auge oder mit dem Sensor durch das Obektiv schaue?

Nein, das Licht ändert sich erst wenn es durch die Pupille auf die Netzhaut fällt statt direkt auf einen Sensor. Die Netzhaut ist sozusagen der Sensor im Auge.

Wenn ein Sensor hinter dem Objektiv liegt, dann bildet das Objektiv das was vor ihm liegt auf den Sensor ab. Wenn da noch eine Linse (Pupille) dazwischen ist, kann das nicht funktionieren. Das Bild, das auf den Sensor projiziert würde, ist deshalb ein völlig anderes als das was auf die Netzhaut projiziert wird wenn von hinten in das Objektiv schaut.
 
Moin,

was diesen "Gedankensprung" fehlt
ist de Tatsache, das Licht durch die Linse zwar "gesammelt" wird....

aber eben durch seinen Konstruktions-Mittelpunkt "über Kreuz" geleitete,
und wieder entzerrt weitergeleitet wird....

nochmal einfach:
vorne sammelt die Linse(die Linsen) und schickt sie kreuzweise durch das Objektiv...

hinten werden diese gekreuzten Strahlen wieder so gerichtet,
dass sie den Brennpunkt(Brennweite) erreichen

in diesem Kreuzungschnittpunkt...liegt der Blendenkörper mit der Lamellemblende und grenzt das Lichtbündel ein( wie beim Wasserstrahl)

und wenn du es ganz eng machst....kommt immer noch Wasser raus, nur weniger;)(gemeint ist Licht!)

Beugung...ließe sich ähnlich beschreiben!!!

während durch ein dickes Rohr....Wasser normal durchgeht
würde bei einer Verengung zunehmen Wasser zur Seite spritzen,
genau an der Austrittsdüse!!!

das ist auch Beugung...nur anderes Medium:lol:
Mfg gpo
 
Ah ja klar :-)
Genau das war mein Problem.
Wenn ich ein Blatt Papier vor eine Kerze halte, dann wird ja auch das ganze Papier beleuchtet.
Ein Objektpunkt strahlt in alle Richtungen. Also kommen alle Objektpunkte (Sozusagen die einzelnen Pixel des Motivs) überall und alle zeitgleich am Objektiv an und werden da auseinander gepflückt.
Wie das dann genau funktioniert versuche ich jetzt aber _noch_ nicht zu verstehen.
Ich habe zuvor das Bild welches der Sensor empfängt mit dem gleichgesetzt was mein Auge empfängt - Das war mein Fehler.
Erstmal bin ich glücklich, danke :-)
 
Klar wirklich???

der Vergleich Sensor(oder Film) mit dem Auge ist nicht abwägig!
unser Auge hat als "Sensor" die Netzhaut mit Stäbchen und Zapfen
===
der Chip-Sensor hat dafür seine Pixelfläche

aber....

beide haben "ein Objektiv"
1) Auge Linse mit Hornhaut
2) Kamera mit Objetiv und Blende

auch hier werden die Strahlen gebündelt und "über Kopf" dargestellt....
nur unser Gehirn wandelt es wieder "auf gerade um"

dazu Schärfe und Blende funktionieren auch ähnlich!

bis auf den einen kleinen Unterschied===>

das Auge kann nicht flächig.....scharfsehen!!!
sondern tastet das Sichtfeld ständig "punktförmig" ab

anders gesagt WIR(also Augen) sehen zu 90% Unscharf....
und nur dort wo wir exakt hinzielen, stellt das Auge scharf!
Mfg gpo
 
Ja, wie gesagt ;)

Man kann nicht sagen der Sensor wäre nicht so wie das Auge.
Lediglich liesse sich behaupten der Sensor wäre so wie die Netzhaut des Auges.
Bzw. das Auge ist das Objektiv inkl. Sensor.

Nun fiel mir aber bei näherer Überlegung noch etwas ein.
Nämlich: Wenn ich ein Bild scharf stelle, dann bedeutet dies doch, daß die verstreuten Lichtstrahlen eines Objektpunkts an der Stelle des Sensors bebündelt wurden.
Das würde bedeuten, daß das Bild unscharf wird, wenn ich den Sensor weiter nach hinten oder vorne schieben würde (Ginge es denn).
Dann frage ich mich aber wieso das Bild sowohl auf dem Sensor, wie auch durch den Sucher, scharf erscheint.

Fotografie ist so eine komplizierte Sache wenn man näher darüber nachdenkt. Aber kaum weiß man bescheid fühlt man sich unglaublich gebildet *lol*.
 
Nun fiel mir aber bei näherer Überlegung noch etwas ein.
Nämlich: Wenn ich ein Bild scharf stelle, dann bedeutet dies doch, daß die verstreuten Lichtstrahlen eines Objektpunkts an der Stelle des Sensors bebündelt wurden.
Das würde bedeuten, daß das Bild unscharf wird, wenn ich den Sensor weiter nach hinten oder vorne schieben würde (Ginge es denn).
Dann frage ich mich aber wieso das Bild sowohl auf dem Sensor, wie auch durch den Sucher, scharf erscheint.

Genau so wird scharfgestellt, nur dass man bei den meisten Kameras das Objektiv (oder Teile davon) weiter von Sensor weg oder ran schiebt. Es gibt jedoch auch Kameras (z.B. Fachkameras) wo der Sensor/Film geschoben wird.

Die Suchermattscheibe in einer DSLR hat genau den selben Abstand vom Objektiv wie der Sensor, nur deshalb kann man die Schärfe im Sucher kontrollieren.
 
Geil, dann hab ich das ja wunderbar verstanden :-)

Komisch, wirkt so als wäre der Weg zum Sucher weiter... aber gut, wirkt sicher nur so.
 
Geil, dann hab ich das ja wunderbar verstanden :-)

Komisch, wirkt so als wäre der Weg zum Sucher weiter... aber gut, wirkt sicher nur so.
Das Bild wird oben im Spiegelkasten auf eine Mattscheibe projiziert. Diese Mattscheibe ist genauso weit entfernt wie der Sensor. Der Sucher ist eine Art Lupe mit der man sich das Mattscheiben-Bild aus der Nähe angugt, so als würde man sich ein Dia im Leuchtkasten mittels einer entsprechenden Lupe ansehen. Das Pentaprisma (Dachkantprisma) dient nur dem Aufrichten des Bildes.
 
Dass das Auge nur "punktförmig" scharf sieht liegt aber auch nur an der Zäpfchen/Stäbchen-verteilung. Wen man bei einem Fotosensor die pixeldichte zum rand hin abnehemn lassen würde wäre das bild einer Digitalkamera auch nur mittig scharf.


Weil Am Anfang des Threads von Beugung gesprochen wurde: In einem optischen System von den Ausmaßen einer Spiegelreflexkamera treten effektiv keinerlei Beugungen auf (schon garnicht an der Kante einer Mauer, dafür sind Spalte/Löcher nötig) Diese Spalte/Löcher müssten von ihrer Breite her in einem größenbereich liegen, der der Wellenlänge der zu brechenden Wellen entspricht. Sprich sichtbares Licht wird nur an Nanometergroßen Löchern gebrochen und bei einer Blende mit 500 Nanometer durchmesser hätte man bei guter Beleuchtung wahrscheinlich eine belichtungszeit von ein paar Jahren^^


Die Vorstellung, dass Licht einzelne, Parallele Strahlen sind ist ein beliebter "Anfänger"fehler in der Optik.
Meine Persönliche Theorie ist, dass diese Denkweise durch die Beobachtungen hervorgerufen wird, die man an einem Spiegel machen kann
Eine punktförmige Lichtquelle (Lampe) wird im Spiegel auch punktförmig abgebildet. Dadurch entsteht der (falsche) Eindruck, dass genau ein strahl von der lampe weg geht, in den Spiegel fällt und das Auge trifft. Wenn die Lampe den ganzen Spiegel anleuchten würde, wäre ja der ganze Spiegel hell und nicht nur das Abbild der lampe. Dabei vergisst man naürlich, dass sehr wohl der ganze Spiegl beleuichtet wird, er bloß den Winkel der Strahlen nicht verändert wie es zB ein weißes Blatt papier tut, und die Strahlen daher immernoch eine bestimmte richtung haben. Aufgrund des unveränderten winkels der Strahlen wird das Auge nur von Strahlen getroffen, die alle von dem selben Punkt auf dem Spiegel stammen, der Rest geht einfach am auge vorbei.
Sorry wenn ich dich jetzt verwirrt habe, passt zugegeben net 100% ins thema, aber ich glaub das die sache mit dem spiegel wirklich ne ursache für Denkfehler in der richtung is.
 
Dass das Auge nur "punktförmig" scharf sieht liegt aber auch nur an der Zäpfchen/Stäbchen-verteilung. Wen man bei einem Fotosensor die pixeldichte zum rand hin abnehemn lassen würde wäre das bild einer Digitalkamera auch nur mittig scharf.


Weil Am Anfang des Threads von Beugung gesprochen wurde: In einem optischen System von den Ausmaßen einer Spiegelreflexkamera treten effektiv keinerlei Beugungen auf (schon garnicht an der Kante einer Mauer, dafür sind Spalte/Löcher nötig) Diese Spalte/Löcher müssten von ihrer Breite her in einem größenbereich liegen, der der Wellenlänge der zu brechenden Wellen entspricht. Sprich sichtbares Licht wird nur an Nanometergroßen Löchern gebrochen und bei einer Blende mit 500 Nanometer durchmesser hätte man bei guter Beleuchtung wahrscheinlich eine belichtungszeit von ein paar Jahren^^


Naja, die Augense ist sicher auch alles ander als Randscharf, und man könnte auch die Theorie aufstellen, das die Evolution dem Auge am Rand nur so wenig Sehzellen gegeben hat weil die Linse das eh nicht bringt.

Das eine Mauerkante nicht sichtbar Lichtbeugung hervorruft ist richtig, aber sonst vertust Du dich mit den Größenangaben. Man kann schon bei Löchern in der Größenordnung von einem Millimetern deutlich Beugungseffekte sehen, und auch Gitter mit einem Raster von einigen Millimetern beugen deutlich (z.B. eine Gardine).
 
Dagegen spricht, dass zB Pferde und viele Vögel ein sichtfeld von über 180 ° haben und auch in einem bereich von über 180 grad durchaus scharf sehen (Bussarde erkennen zB aus mehreren metern höhe bequem eine Maus auf dem Boden) Der Mensch benötigt halt einfach kein leistungsfähigeres Auge, da er sich ja bei bedarf umdrehen/die augen verdrehen kann.


Mit den größenangaben hab ich mich tatsächlich vertan, optische Gitter haben Spalte im Bereich von Micrometern, nicht nanometern.
Dass Gardienen lichtbeugungen hervorufen, kann definitiv nicht sein, da musst du irgendwas falsch verstanden haben.
Das einzige was beim fotografieren mit beugungen schwierigkeiten machen kann, ist dass bei sehr dicken linsen das licht an den Spalten im Glaskristall gebeugt werden kann.

Wenn du mal überlegst dass das sichtbare spektrum bei 700 nm aufhört und du eine spaltbreite von einem millimeter annimmst, also dem 1400fachen, kannst du dir bequem ausrechnen, wie bequem so ein lichtstrahl durch diesen spalt passt ohne sich verbiegen zu müssen. Da wird nichts gebeugt. und 700nm sind rotes licht, alles andere was sichtbar ist hat noch kleine wellenlängen.
 
Dagegen spricht, dass zB Pferde und viele Vögel ein sichtfeld von über 180 ° haben und auch in einem bereich von über 180 grad durchaus scharf sehen (Bussarde erkennen zB aus mehreren metern höhe bequem eine Maus auf dem Boden) Der Mensch benötigt halt einfach kein leistungsfähigeres Auge, da er sich ja bei bedarf umdrehen/die augen verdrehen kann.


Mit den größenangaben hab ich mich tatsächlich vertan, optische Gitter haben Spalte im Bereich von Micrometern, nicht nanometern.
Dass Gardienen lichtbeugungen hervorufen, kann definitiv nicht sein, da musst du irgendwas falsch verstanden haben.
Das einzige was beim fotografieren mit beugungen schwierigkeiten machen kann, ist dass bei sehr dicken linsen das licht an den Spalten im Glaskristall gebeugt werden kann.

Wenn du mal überlegst dass das sichtbare spektrum bei 700 nm aufhört und du eine spaltbreite von einem millimeter annimmst, also dem 1400fachen, kannst du dir bequem ausrechnen, wie bequem so ein lichtstrahl durch diesen spalt passt ohne sich verbiegen zu müssen. Da wird nichts gebeugt. und 700nm sind rotes licht, alles andere was sichtbar ist hat noch kleine wellenlängen.

Auch ich kann sehen wenn am Rande meines Blickfeldes ein Tier auftaucht, aber ob es Streifen oder Flecken hat sehe ich dann erst wenn ich hinschaue...
Und der Adler hat meines Wissens nach auch nicht über sein ganzes Gesichtfeld diese hohe Sehschärfe, ich bin aber kein Biologe...

Da habe ich nichts falsch verstanden, schon mal Durch eine feinmaschige Gardine, oder einen Damenstrumpf (beim letzten Bankeinbruch:lol:) in die Sonne geguckt?
Die "Strahlen" die man dort um die Sonne sieht sind durch Beugung erzeugt.
Für ein Gitter gilt: sin a = k Lamda/G
Für eine Wellenlänge von 500nm und eine Gitterkonste von z.B. 0,5 mm ergibt sich für die erste Beugungsordung (k=1) zwar nur ein Beugungswinkel von 0,05° aber ein Rechteckgitter hat jede Menge Beugungsordungen...
 
Zuletzt bearbeitet:
In einem optischen System von den Ausmaßen einer Spiegelreflexkamera treten effektiv keinerlei Beugungen auf


Mhmmm, also ist alles Quatsch, was zum Thema Beugungsunschärfe bei sehr kleinen Blendenwerten geschrieben wird? Tut mir Leid, aber ich "glaube" erst einmal weiter der "herrschenden Fotografenmeinung" zur Beugung bis Du mich mit Argumenten überzeugst.

Nach meiner Erinnerung aus dem Physikunterricht tritt Beugung an jeder Kante auf, nur ist sie meist nicht messbar. Aber vielleicht irre ich mich ja.

M-A
 
WERBUNG
Zurück
Oben Unten