• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Panasonic Lumix G1 ohne Spiegel - Der Anfang vom Ende der DSLR-Ära?

Ist das nicht irgendwie ein bisschen widersprüchlich?
Auf der einen Seite sagst du die Kamera kann nix - man muß alles selber machen. Also in RAW und am besten alle Regler am Computer setzen.
Und auf der anderen Seite bist du stoltz das deine Kamera noch nie beim WB daneben lag.

Ich wollte damit sagen, dass es für all' diejenigen, die eh auf die Automatik vertrauen reicht es egal ist, ob der Sucher das Bild nun mit Kameraaugen wiedergibt oder real. Für die ambitionierten, die den WA manuell machen, können ohne Probleme im RAW-Format Bilder machen (was sie eh meist machen) und da spielt der WA bei der Aufnahme nunmal keine Rolle.

Btw. LiveView sollte doch auch das Bild so wiedergeben, wie es der Sensor sieht, oder???

Viele Grüße,
aighes
 
Doch. Die Kamera hat "an sich" schon einen extrem reduzierten Dynamikumfang und kann sich nur mittels mehr oder weniger "intelligent" erscheinenden Regeln selektiv einen kleinen Bereich aus dem Dynamikumfang der echten Szene auswählen.
Und das ist ja auch gut so. Würde ein Foto den tatsächlichen Motivkontrast wiedergeben, so müsste es dieselbe Menge Licht emittieren wie das Motiv selbst. Frage: Brennt die kleine Sonne auf dem Foto dann ein Loch ins Fotoalbum, wenn man es zuklappt?
Die JPG-Engine nimmt keine Rücksicht auf das Ausgabemedium (woher soll sie denn wissen, ob ich die Fotos ins Netz stelle oder ausdrucken will?), sondern versucht, möglichst viel von dem, was der Sensor überhaupt an Information hat (die 12 oder 14 Bit), als eine "vom Menschen noch als Dynamik wahrnehmbare Bildinformation" in die 8 Bit zu packen, die ihr im JPG-Dateiformat zur Verfügung stehen.
Mal darüber nachgedacht, warum es ausgerechnet 8bit sind? (Tipp: Vielleicht aus Rücksicht auf das Ausgabemedium?)
Und wenn jetzt das JPG schon möglichst viel an menschenmöglicher Dynamik in 8bit packt, in wieviel Bit packt dann der rawentwickelnde Fotograf die übriggebliebene Information? Was passiert mit der riesigen Dynamik mehrerer HDR-Belichtungen, nachdem man sie durch Photomatix&Co gejagt hat? Und wieviel Bit hat das Poster, das dann an der Wand hängt?
 
Irgendwie habe ich das Gefühl, dass in diesem Thread manche Leute alles möglichst umständlich haben wollen ... was ist denn daran schlecht endlich zu sehen was die Kamera sieht?

Mit einem eVF kann ich vollmanuell ohne Belichtungsmesser perfekt die Helligkeit und den Kontrast so einstellen, wie ich das haben will ... ein Livehistogramm und die direkte Vorschau helfen mir dabei. Das ist für mich das Ziel wo ich hinwill ... keine umständlichen Hilfskonstruktionen mehr, die eh nicht so richtig funktionieren ... wofür ein Belichtungsmesser, wenn ich doch auch direkt mit dem Sensor messen kann?

Wozu eine Automatik, wenn ich genau sehe was draufkommt und das mit einem Dreh einstellen kann?

Weissabgleich im Sucher ist praktisch, nicht unbedingt, weil man das vor der Aufnahme exakt einstellen müsste, aber schon deshalb, weil dann kein Thread im Forum folgt mit:

"EBV: vergessen Kunstlicht auszuschalten, kann man meine Hochzeitsbilder noch retten"


Und nur weil es RAW gibt, muss man nicht auf solche Komfortferatures verzichten ... sich einfach nicht zu nutzen ist durchaus statthaft ;)


Alleine die unbrauchbaren Einstellscheiben sämtlicher DSLRs in Bezug auf Schärfentiefevorschau ist ein Grund sich einen guten eVF zu wünschen .... vor lauter Helligkeit in den Suchern (das einzige Qualitätskriterium, das Anfängern einfällt) sind das nur noch leicht mattierte Klarglasscheiben ... untauglich für eine brauchbare Schärfebeurteilung oder eben die Schärfentiefevorschau.
Die Möglichkeit bei F16 noch ein helles Bild bei Arbeitsblende zu sehen alleine ist schon einiges wert .. oder ein Bild bei F1,8 zusehen, das die wirkliche Schärfetiefe erahnen lässt.

Kuckt mal im Forum, wieviele Threads sich mit Unter- oder Überbelichtungen beschäftigen ... dies passiert nicht, wenn man im Sucher (zur Not mit Zebraunterstützung) schon vor der Aufnahme sieht, wo es ausgerissen ist.
 
Und das ist ja auch gut so. Würde ein Foto den tatsächlichen Motivkontrast wiedergeben, so müsste es dieselbe Menge Licht emittieren wie das Motiv selbst. Frage: Brennt die kleine Sonne auf dem Foto dann ein Loch ins Fotoalbum, wenn man es zuklappt?
??? Hä :confused: ???
Ich sagte lediglich, dass Dein Satz "Liegt aber nicht am Bild aus der Kamera an sich" so nicht richtig ist, denn der größte Teil der Dynamikreduktion wird letztendlich durch den Sensor vorgenommen.

Mal darüber nachgedacht, warum es ausgerechnet 8bit sind? (Tipp: Vielleicht aus Rücksicht auf das Ausgabemedium?)
Ich verstehe Deine Argumentation irgendwie nicht.
Dass Kameras intern überhaupt JPGs erzeugen und nicht ausschließlich irgendein proprietäres Format, ist nur ein Tribut an die weite Verbreitung des JPG-Formats und an die damit verbundene Einfachheit der Benutzung.

Und sicher: Obwohl das JPG-Format selbst keine Farbtiefe vorschreibt, werden letztendlich nur 8 bit pro Kanal reingepackt, weil es sich hardwaremäßig schon lange vor der Erfindung des JPG-Formats herausgestellt hatte, dass Bildschirmpufferspeicher mit 8 bit pro Kanal für 99,9% der Anwender ausreicht, also hat man sich eben daran orientiert.

Und wenn jetzt das JPG schon möglichst viel an menschenmöglicher Dynamik in 8bit packt, in wieviel Bit packt dann der rawentwickelnde Fotograf die übriggebliebene Information? Was passiert mit der riesigen Dynamik mehrerer HDR-Belichtungen, nachdem man sie durch Photomatix&Co gejagt hat?
Wir reden aneinander vorbei: Das, was Du mit "JPG-Engine" in Kameras meinst, ist eine Art "Standardeinstellung" für das Entwickeln, sprich das für JPGs immer notwendige Dynamikreduzieren der RAW-Bilder. Wenn man mit der Standardeinstellung nicht zufrieden ist, dann lässt man das nicht die JPG-Engine machen, sondern entwickelt seine RAW-Bilder selbst. Ziel ist natürlich in beiden Fällen, ein 8 bit tiefes Bild zu produzieren, aber der Fotograf kann Bildteile, die die JPG-Engine wegfallen lassen würde (weil sie außerhalb des von ihr ausgewählten "Standard-Dynamikbereichs" liegen) trotzdem noch ins JPG-Bild rüberretten, indem er sie aufhellt oder abdunkelt, so dass sie im "sichtbaren" 8-bit-Bereich zu liegen kommen.
Und wieviel Bit hat das Poster, das dann an der Wand hängt?
Sicherlich weniger als 8 :D.
 
TTL: ST-E2 und 430 EX (gemessen an der Leistung geht der Preis in Ordnung)
bezahlbare, wetterfeste Ausrüstung: es soll Leute geben, die das Bedürfnis haben, bei Sturmflut Bilder zu schießen. Sofern die Abbildungsleistung aufgrund von Tropfen auf der Frontlinse nicht beeinträchtigt werden würde, wäre das eventuell sogar eine tolle Idee :D

Falsch => Genaugenommen mit zwei Spiegeln 1x Umleitung auf das Prisma und ein zweiter für die Umleitung auf die AF-Sensoren.

Somit also auch ne DSLR mit der Einschränkung, dass der Spiegel nicht mehr beweglich ist und bei der Aufnahme nicht wegklappt!

Ähm, welches Prisma? Und welcher AF Sensor?

Das passiert doch alles auf dem Aufnahmesensor, die einzige Reflexion, die es da gibt ist die der Sonne in der Frontlinse.
 
Mit einem eVF kann ich vollmanuell ohne Belichtungsmesser perfekt die Helligkeit und den Kontrast so einstellen, wie ich das haben will ... ein Livehistogramm und die direkte Vorschau helfen mir dabei. Das ist für mich das Ziel wo ich hinwill ... keine umständlichen Hilfskonstruktionen mehr, die eh nicht so richtig funktionieren ... wofür ein Belichtungsmesser, wenn ich doch auch direkt mit dem Sensor messen kann?
Wieso versteht hier einfach niemand, dass ein kleines Kameradisplay nie und nimmer taugen wird, um das Bild 100% zu beurteilen??? Allein die LCD-Technologie, Nicht-Kalibriertheit und das variierende Umgebungslicht führen die These, dass man im EVF oder auch im Display einer Live-View-DSLR die Qualität des Bildes zu 100% beurteilen kann, doch ad Absurdum!
Wozu eine Automatik, wenn ich genau sehe was draufkommt und das mit einem Dreh einstellen kann?
Eben: das "genau" ist ein Trugschluss!
Weissabgleich im Sucher ist praktisch, nicht unbedingt, weil man das vor der Aufnahme exakt einstellen müsste, aber schon deshalb, weil dann kein Thread im Forum folgt mit:
"EBV: vergessen Kunstlicht auszuschalten, kann man meine Hochzeitsbilder noch retten"
Eigentlich geht's grad am Thema vorbei:
Es ging darum, ob man den WA auf "Automatisch" lässt oder meint, ihn manuell einstellen zu müssen.
Manuell = umständlich und am Display trotzdem nicht 100% sicher zu beurteilen
Automatisch = praktisch, passt im Großen und Ganzen, und ich brauche ihn nicht im Sucher zu beurteilen --> d.h. dieser "Vorteil" vom EVF wird total überbewertet.

Alleine die unbrauchbaren Einstellscheiben sämtlicher DSLRs in Bezug auf Schärfentiefevorschau
Sorry, was ist denn das für ein Unfug? "sämtlicher DSLRs" ist ja wohl schlichtweg falsch. Es gibt sicher Einsteiger-DSLRs, bei denen das der Fall ist, aber schon ab Mittelklasse (z.B. D80) hat man hervorragende Mattscheiben, die an Bokeh definitiv das wiedergeben, was hinterher auf dem Bild zu sehen ist.
Die Möglichkeit bei F16 noch ein helles Bild bei Arbeitsblende zu sehen alleine ist schon einiges wert
Das ist zwar richtig, aber nur von theoretischer Bedeutung. In der Praxis braucht man eine Blendenvorschau letztendlich nicht mehr, wenn man einfach nur möglichst große Schärfentiefe haben will. Da macht man die Blende soweit zu, wie es bel.technisch möglich ist und stellt die Entfernung sinnvoll ein (hyperfokale Entfernungseinstellung), fertich.
Kuckt mal im Forum, wieviele Threads sich mit Unter- oder Überbelichtungen beschäftigen ... dies passiert nicht, wenn man im Sucher (zur Not mit Zebraunterstützung) schon vor der Aufnahme sieht, wo es ausgerissen ist.
Ich glaube nicht, dass man mit einem 800x600-EVF verlässlich überprüfen kann, ob scheinbar über- oder unterbelichtete Stellen nicht doch noch Zeichnung haben und somit eben nicht unter- oder überbelichtet sind.
 
man merkt, dass Dir Erfahrung .. zB mit einer Sony R1 .. fehlt :) zum Thema eVF

Ich muss ein Bild nicht 100% beurteilen, mir reicht es mehr zu sehen als durch einen optischen Sucher :)


lieber sehe ich annähernd (mal als Zugeständnis an Deinen Einwand zur Genauigkeit) das was nacher in der Datei steht, als ein vollkommen unabhhängiges Bild, das nur von meinem Auge begrenzt ist und das mit meiner Datei auf der Speicherkarte nur den Ausschnitt (annähernd) gemein hat.

Du hast eine andere D80, als ich kennengelernt habe, auch eine EOS 5D oder Nikon D300 fantasieren sich bei F1,4 eine höhere Schärfentiefe zusammen als wirklich aufs Bild kommt (logisch, der Klaranteil ist einfach zu hoch bei den superhellen aktuellen Scheiben)... eine echte Erholung war es für mich, als ich in meine frühere Kamera eine LX Einstellscheibe eingebaut habe ... das grieselte zwar (welch vertrauter Anblick ;) ) bei lichtschwachen Zooms, aber 1,8 war damit deutlich näher am Ergebnis als mit der lasermattierten Standardeinstellscheibe.


was ich in der Praxis mache unterscheidet sich scheinbar sehr von dem was Du machst ;) die hyperfokale Einstellung habe ich mit der digitalen Fotografie abgeschafft, denn jeder der sich für ein Bild interessiert zoomt auf 100% und da sind die so entstandenen Bilder schlicht nicht mehr scharf ... denn die üblichen Rechner und Tabellen sind auf kleine Bildchen 10x15 und "normalen" Betrachtungsabstand ausgelegt ... ich lege meinen Schärfepunkt bewusst und zwar dahin wo ich meine, dass die Schärfenebene sitzen muss, die Blende wähle ich so, dass andere wichtige Teile noch ausreichend scharf sind.

um zu sehen was unter- oder Überbelichtet ist hilft ein Zebra oder die blinkenden Highlights schon sehr ... es schadet natürlich nicht, wenn man seine Kamera kennt und weiss, wie sie reagiert (ich kann mich dunkel erinnern, dass das auch schon zu analogen Zeiten wichtig war ;) )
Das Livehistogramm hilft dann noch letzte Zweifel auszuräumen, wenn man sich nicht sicher ist :)

Solange Leute von "retten" sprechen, wenn sie Bilder in RAW gemacht haben und noch Zeichnung in den Lichtern rausarbeiten wollen, ist hier defnitiv Handlungsbedarf sichtbar.
 
Das ist zwar richtig, aber nur von theoretischer Bedeutung. In der Praxis braucht man eine Blendenvorschau letztendlich nicht mehr, wenn man einfach nur möglichst große Schärfentiefe haben will. Da macht man die Blende soweit zu, wie es bel.technisch möglich ist und stellt die Entfernung sinnvoll ein (hyperfokale Entfernungseinstellung), fertich.

Und was, wenn man möglichst geringe Schaerfentiefe haben will? Bzw. eine definierte Schaerfentiefe? Fuer maximale Schaerfentiefe kann ich auch eine gute Kompaktkamera nehmen.


Ich glaube nicht, dass man mit einem 800x600-EVF verlässlich überprüfen kann, ob scheinbar über- oder unterbelichtete Stellen nicht doch noch Zeichnung haben und somit eben nicht unter- oder überbelichtet sind.

Das ist nur eine Frage der Zeit. Es gibt definitiv schon besser EVFs, die VGAs werden jetzt erstmal an die Erstkaeufer verscherbelt, um Entwicklungskosten wieder reinzuholen. Die G1 stellt sicher nicht die Spitze des Machbaren dar. Ich sehe die Zukunft auf jeden Fall in solchen Systemen.
 
(...) Sorry, was ist denn das für ein Unfug? "sämtlicher DSLRs" ist ja wohl schlichtweg falsch. Es gibt sicher Einsteiger-DSLRs, bei denen das der Fall ist, aber schon ab Mittelklasse (z.B. D80) hat man hervorragende Mattscheiben, die an Bokeh definitiv das wiedergeben, was hinterher auf dem Bild zu sehen ist. (...)

Das ist kein Unfug – Mir ist nämlich kein DSLR-Sucher bekannt, der die Schärfentiefe nicht um mindestens eine Blende verfälscht, und das ist jetzt sehr, sehr optimistisch geschätzt. Wäre dem nicht so, würde ich mit 'ner an 1DsII manuell fokussierten Linse nicht mindestens 60% Ausschuss bei großen Blenden produzieren.

Ich glaube nicht, dass man mit einem 800x600-EVF verlässlich überprüfen kann, ob scheinbar über- oder unterbelichtete Stellen nicht doch noch Zeichnung haben und somit eben nicht unter- oder überbelichtet sind.

Wenn man im EVF, wie bei der G1, eine Ausschnittvergrößerung machen und darauf erkennen kann, dass oder ob ausreichend Zeichnung vorhanden ist, halte ich das schon für recht verlässlich.
 
man merkt, dass Dir Erfahrung .. zB mit einer Sony R1 .. fehlt :) zum Thema eVF

Ich muss ein Bild nicht 100% beurteilen, mir reicht es mehr zu sehen als durch einen optischen Sucher :)
Tja, ich selbst habe das Gefühl, durch einen el. Sucher oder Display weniger zu sehen, als durch den optischen. Ich will die Dynamik der realen Szene sehen, die ich einfangen möchte, und wie sich diese im Bildrahmen darstellt. Ich habe nach "nur" ca. eineinhalb Jahren DSLR-Erfahrung mittlerweile einen guten Blick dafür entwickelt, bei welchen Szenen die Dynamik zum Problem wird, und ich denke, das geht jedem einigermaßen engagierten DSLR-Besitzer genauso. EVF oder LiveView wären da nur die Bestätigung für etwas, was sowieso schon klar ist. Für jemanden mit wenig Erfahrung mag der ständige Blick auf den EVF/Display natürlich trotzdem eine große Hilfe sein.
lieber sehe ich annähernd (mal als Zugeständnis an Deinen Einwand zur Genauigkeit) das was nacher in der Datei steht, als ein vollkommen unabhhängiges Bild, das nur von meinem Auge begrenzt ist und das mit meiner Datei auf der Speicherkarte nur den Ausschnitt (annähernd) gemein hat.
Das kann ich durchaus nachvollziehen, aber es ist eine andere Art der Herangehensweise als meine. Ich betrachte ja beim Herumlaufen auf einer Fototour nicht die Gegend ständig durch den EVF oder durch's Display, sondern ich entdecke mit meinen eigenen Augen Motive, die ich festhalten will. Denn wenn ich dann die Kamera vor's Auge halte, möchte ich das Motiv -- bis auf den Rahmen -- weiterhin genau so sehen, wie es mir beim Vorbeilaufen aufgefallen ist. Dass die Kamera -- oder der EVF/das Display mit der Szene dann Dinge anstellt, die den Eindruck möglicherweise zerstören könnten (inkl. Unter- oder Überbelichtung) ist mir klar, aber das interessiert mich nur insofern, als es dann meiner Erfahrung und Auseinandersetzung mit dem Thema bedarf, um die Kamera zur richtigen Einstellung zu bewegen. Aber das ist für mich ein nachgelagerter Schritt, ich möchte darüber bei der Komposition der Aufnahme nicht nachdenken müssen bzw. auch nicht davon beeinflusst werden (was ich ja würde, wenn ich über einen EVF oder Display blickte).
Du hast eine andere D80, als ich kennengelernt habe, auch eine EOS 5D oder Nikon D300 fantasieren sich bei F1,4 eine höhere Schärfentiefe zusammen als wirklich aufs Bild kommt (logisch, der Klaranteil ist einfach zu hoch bei den superhellen aktuellen Scheiben)... eine echte Erholung war es für mich, als ich in meine frühere Kamera eine LX Einstellscheibe eingebaut habe ... das grieselte zwar (welch vertrauter Anblick ;) ) bei lichtschwachen Zooms, aber 1,8 war damit deutlich näher am Ergebnis als mit der lasermattierten Standardeinstellscheibe.
Hm...ich war bis jetzt immer sehr zufrieden mit der "Vorschau" über den Sucher der D80. Ich habe vor ein paar Tagen im Laden mal durch eine 450D gelinst und war in der Tat ziemlich erschrocken, wie schrecklich dort der unscharfe Bereich aussieht -- keine wirkliche Unschärfe, sondern nur verwaschene Zehnfachbilder. Von sowas ist die D80 meilenweit entfernt.
ich lege meinen Schärfepunkt bewusst und zwar dahin wo ich meine, dass die Schärfenebene sitzen muss, die Blende wähle ich so, dass andere wichtige Teile noch ausreichend scharf sind.
Bei Szenen, in denen sowohl der Vordergrund als auch Hintergrund beide möglichst scharf sein sollen, verschenkst Du so aber Hintergrundschärfe, wenn Du die Schärfeebene auf den Vordergrund legst. Ich regele die Entfernungseinstellung in dieser Situation so nach, dass die Schärfeebene irgendwo zwischen Vorder- und Hintergrund liegt, aber das sind reine Erfahrungswerte, da hilft weder ein EVF noch ein optischer Sucher.
um zu sehen was unter- oder Überbelichtet ist hilft ein Zebra oder die blinkenden Highlights schon sehr ... es schadet natürlich nicht, wenn man seine Kamera kennt und weiss, wie sie reagiert (ich kann mich dunkel erinnern, dass das auch schon zu analogen Zeiten wichtig war ;) )
Das Livehistogramm hilft dann noch letzte Zweifel auszuräumen, wenn man sich nicht sicher ist :)
Natürlich, das schnelle und sichere Erkennen von Grenzwertüberschreitungen sind eindeutige Vorteile eines EVF oder Live-View-Displays.
 
...Wieso versteht hier einfach niemand, dass ein kleines Kameradisplay nie und nimmer taugen wird, um das Bild 100% zu beurteilen??? ...

Im Gegensatz zu was, zum optischen Sucher? Wieviele Prozent Bildbeurteilungsqualität schafft den der?
Wieviel % davon schafft er noch im Filmmodus?

...
Allein die LCD-Technologie, Nicht-Kalibriertheit und das variierende Umgebungslicht führen die These, dass man im EVF oder auch im Display einer Live-View-DSLR die Qualität des Bildes zu 100% beurteilen kann, doch ad Absurdum!...
Im EVF der G1 kommt gar keine LCD-Technologie zum Einsatz.
Wenn Du Dich schon darüber ausläßt, was er alles nicht kann, dann bitte wenigstens über die richtige Technologie:
http://www.imaging-resource.com/PRODS/DMCG1/DMCG1A.HTM

LG Horstl
 
Im Gegensatz zu was, zum optischen Sucher? Wieviele Prozent Bildbeurteilungsqualität schafft den der?
Nein, Missverständnis: Ich wollte damit nicht sagen, dass der optische Sucher besser ist, sondern nur einigen Aussagen hier widersprechen, die meinten, man könnte im EVF ganz genau sehen, wie das Foto später aussehen wird, und allein deshalb der EVF dem optischen Sucher haushoch überlegen sein soll (was man ja auch tatsächlich sagen könnte, würde der EVF wirklich absolute Reproduktionstreue garantieren.)
Im EVF der G1 kommt gar keine LCD-Technologie zum Einsatz.
Wenn Du Dich schon darüber ausläßt, was er alles nicht kann, dann bitte wenigstens über die richtige Technologie:
http://www.imaging-resource.com/PRODS/DMCG1/DMCG1A.HTM
LG Horstl
Ja, hast ja Recht, ich meinte im Prinzip nur "elektronisches Display".

Außerdem geht es mir hier nicht darum, zu behaupten, was der EVF alles "nicht kann", sondern nur darum, dass die hier geäußerten Erwartungen an den EVF m.E. total überhöht sind und deshalb die Diskussion "EVF ist besser als optischer Sucher" völlig verfrüht und deshalb ziemlich sinnlos ist.

Das einzige, worüber man wirklich sinnvoll diskutieren kann, ist, wie sich der prinzipielle Unterschied zwischen einem optischen und einem elektronischen Sucher auf die fotografische Arbeit auswirken könnte, und genau das tue ich gerade.
 
Hier:
https://www.dslr-forum.de/showthread.php?t=376472
geht es mittlerweile größtenteils um das gleiche Thema.
Siehe auch meine Postings dort:
Die Anforderungen an einen Sucher sind offenbar so grundverschieden wie die Gewohnheiten beim Fotografieren.
Ich persönlich finde es ziemlich lästig, immer _durch_ die Kamera gucken zu müssen. Mir gefällt die Idee sehr gut, den Ausschnitt, die ungefähre Helligkeit etc. sowohl über das Display als auch - etwa bei zu heller Umgebung - mal durch den eVF beurteilen zu können. Dabei finde ich es absolut nicht notwendig, dass das, was ich da sehe, möglichst nah an der Realität ist. Immerhin bin ich doch gerade dort, wo das Foto entstehen soll, kann also einfach an der Kamera vorbei hingucken. Das gilt vor allem dann, wenn ich das Display benutze und eben nicht die Kamera direkt vor der Nase habe. Display und / oder Sucher dienen dazu, festzustellen, was ich erhalte, wenn ich auf den Auslöser drücke...
 
Ich habe hier auch eine Frage:

Die Geschichte mit dem Weißabgleich ist doch komplett (oder fast?) nur dazu da, um die subjektive Wahrnehmung der Farben durch den Betrachter zu kompensieren (sensorielle Anpassung). Mit anderen Worten: wenn ich mit bloßem Auge ein Blatt papier als "weiß" wahrnehme (und ich schreibe hier absichtlich nicht "sehe"), soll das Blatt auch auf dem Foto weiß dargestellt werden - und nicht z.B. gelblich, wie es in Glühlampenlicht der Fall wäre.

Das heißt nicht, dass das besagte Blatt in Glühlampenlicht nicht gelblich reflektiere (tut es sehr wohl, da das Licht selbst eine tiefere Farbtemperatur hat) - es ist mein Gehirn, das dies kompensiert, auf Grund von Informationen wie "Papier hat Farbe X; Lampe strahlt weisses Licht" und dergleichen.

Die Kamera besitzt keine solche Informationen und nimmt das auf dem Foto auf, was sie "sieht".

Und nun die eigentliche Frage: In einer Lichtsituation in der meine Augen/Hirn sich ans Lich X angepasst haben - kann ich mit bloßem (und ich wiederhole: angepasstem) Auge den richtigen Weißabgleich beurteilen? Ich behaupte hier frech - nein bzw. bestenfalls "irgendwie", "naja" und so weiter. Wohlgemerkt stelle ich hier nicht die Sucher in Frage, sondern die Kapazität des Menchen, rasch hin und her zu schalten. Deswegen schimmern übrigens auch die Fernseher bläulich, am Abend...
 
Zuletzt bearbeitet:
Und nun die eigentliche Frage: In einer Lichtsituation in der meine Augen/Hirn sich ans Lich X angepasst haben - kann ich mit bloßem (und ich wiederhole: angepasstem) Auge den richtigen Weißangleich beurteilen? Ich behaupte hier frech - nein bzw. bestenfalls "irgendwie", "naja" und so weiter. Wohlgemerkt ich stelle hier nicht die Sucher in Frage, sondern die Kapazität des Menchen, rasch hin und her zu schalten. Deswegen schimmern übrigens auch die Fernseher bläulich, am Abend...

Sehr gut erkannt, das wollte ich nämlich auch schon fragen.

Anders ausgedrückt: Wenn ich eine indoor-Szene mit Glühlampenlicht und Weißabgleich auf "Sonnenlicht" eingestellt aufnehme und mir das direkt danach und am gleichen Ort (mit auf Glühlampe angepasstem Auge) auf dem Display ansehe, dann dürfte mir eigentlich gar nicht sonderlich auffallen, dass das Bild eigentlich mit dem "falschen Weißabgleich" aufgenommen wurde.

Mir fällt die extrem ins Gelbrote verschobene Grund- oder Durchschnittstemperatur erst dann wirklich auf, wenn ich das Bild auf dem Display bei Tag betrachte!

In der Tat kann ich mich jetzt sogar daran erinnern, dass mir beim Durchsehen der Fotos am nächsten Tag -- bei Tageslicht -- oft erst dann auffiel, dass die alle rotstichig waren (weil ich vergessen hatte, den WA auf "Auto" zu stellen!)
 
Mit einem freundlichen "Ihr habt recht, ein optischer Sucher kann sowieso alles besser!" und "RAW, RAW über alles!" verabschiede ich mich für die nächsten 5 Jahre aus diesem Thread.

Ich entschuldige mich, dass ich ein paar mögliche Vorzüge aufzeigen wollte, welche für die absoluten Meister ihres Faches hier selbstverständlich keine sind. Als naiver Laie freue ich mich derweil heimlich in meiner Ecke auf die zukünftigen Möglichkeiten, die einem Stümper wie mir das Leben extrem erleichtern werden.

'tschuldigung nochmal, ich bin jetzt weg ...
 
ich find des bescheuert, dass jetzt "über den sensor gesucht wird"...

ein vorteil der dslr war/ist die rauscharmut, welche neben dem großen sensor auch durch die nur kurzzeitige nutzung des sensors kommt. Da der Sensor ein (der Ausdruck ist jetzt nicht korrekt) "Energie-Rezeptor" ist und nicht nur auf Lichtwellen reagiert, sondern auch auf wärme, bringt ein längeres einschalten bedingt durch die eigenerwärmung entscheidene Nachteile.

Beispiele, zwar nur mit ner Kompakten, aber ne DSLR sollte sich genauso verhalten: (beide, unschwer zu ekennen, aus wikipedia)

http://commons.wikimedia.org/wiki/Image:Temperatur_rauschen_iso100_R7307729_WP.png
http://de.wikipedia.org/w/index.php..._R7308112_wp.png&filetimestamp=20080215233802

Zudem müssten Leistungsfähigere (=Schwerere?) Akkus her um auf die gleiche Laufzeit zu kommen...
 
Ähm, welches Prisma? Und welcher AF Sensor?

Das passiert doch alles auf dem Aufnahmesensor, die einzige Reflexion, die es da gibt ist die der Sonne in der Frontlinse.

Ups, da hatte ich wohl in Verbindung mit der G1 ne falsche schematische Darstellung von einem Kaufinteressenten gezeigt bekommen und nicht explizit kontrolliert. Auf seiner Darstellung war der übliche SLR Lichtweg gezeigt wobei man in dem Schema meinen konnte, dass die Spiegel fest installiert und halbdurchlässig sind.
 
WERBUNG
Zurück
Oben Unten