• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

FT/µFT Grundempfindlichkeit mfT ISO 200 ?

Silvestri

Themenersteller
Das Thema ist evtl heikel, denn es mangelt mir an Definitionen und Messmöglichkeiten.

Ich habe eine GX9, mit der ich sehr zufrieden bin. Zu 95% nehme ich jpgs auf und die Qualität in Bezug auf Dynamik und Farbwiedergabe ist sehr ordentlich.

Gelegentlich nehme ich jpg + raw auf und mache eine ständig wiederkehrende Beobachtung. Ich nehme alles mit Bracketing auf, meistens mit 1/3 oder 2/3 Belichtungsabstand, 5 oder 7 Bilder.

- Ich suche mir das optimal belichtete jpg für die Weiterverarbeitung aus, meine Software easy hdr 3 zeigt mir das Histogramm und meine Augen sehen die Bildwirkung.

- Ich suche mir das optimal belichtete raw aus und stelle fest, wenn ich eine Belichtung aussuche, die eine Blende mehr ist als beim optimalen jpg, bekomme ich die besten Ergebnisse für raw.

Meine Auswahlkriterien sind optimale Zeichnung von Lichtern und Schatten, wobei häufiger die Lichter ausschlaggebend sind, und Rauscharmut, die bei einer höheren Belichtung günstiger ausfällt als bei einer knappen Belichtung.

Nun möchte ich nicht absolut argumentieren, das bringt nichts. Aber wer hat eine ähnliche Erfahrung, dass die optimale jpg-Belichtung so weit von der optimalen raw-Belichtung auseinanderliegt?

Ich habe eine Vermutung, aber die ist unscharf, trotzdem möchte ich sie zur Diskussion stellen:

Die Dynamik der GX9 im jpg finde ich beachtlich, ich bin hin und weg. Jetzt der schuftige Gedanke: Was ist, wenn die Kamera alle jpgs um eine Blende unterbelichtet, das jpg intern hochzieht und das nach aussen keinem sagt? Verbesserte Lichterzeichnung wäre die Folge, alle sagen: Klasse Sensor! Die interne Entrauschung bügelt diese leichte Unterbelichtung gut aus, der Kunde ist zufrieden.

Jetzt kommt der Switch zu raw: Die Kamera zieht die raws nicht entsprechend hoch. Wenn ich das knapp belichtete raw verarbeite, stelle ich stärkeres Rauschen fest, die kamerainterne Entrauschung wie bei jpg findet ja nicht statt. Da mir das nicht gefällt, erhöhe ich die Belichtung in feinen Schritten, um das Optimum an Zeichnung einerseits und Rauscharmut andererseits zu finden.

Mir ist bewusst, dass man ein raw nicht ansehen kann. Mein Viewer irfan view zeigt mir trotzdem eine Illusion des raws, und meine Augen sagen: das ist so gruselig hell, das würde ich ohne Vorwissen gleich in den Mülleimer tun. Aber ich weis, das ist eine Illusion, wer hat je ein raw gesehen?

Das Ergebnis: Ich belichte das raw eine volle Blende mehr als das jpg. Wer hat diesen Vergleich sonst noch gemacht?

Die Story geht weiter, ich benutze die Empfindlichkeitserweiterung "nach unten" auf ISO 100. Das raw belichte ich eine Blende gegenüber dem optimalen jpg über, also befinde ich mich bei effektiven ISO 50.

Bitte nicht falsch verstehen: die Ergebnisse mit ISO 100 + 1 Blende sind das Beste, was ich aus dieser mfT bisher herausgeholt habe, der Stabi der GX9 ist gut, ich bin Schönwetter-Postkartenfotograf und ISO 50 reichen mir. Mit Stabi, Bracketing und HDR-Verarbeitung ist das eh kein Problem.

Technik ist eine Sache, Marketing eine andere Sache. Jetzt frage ich mich, habe ich einen Denk- oder Bedienungsfehler oder bekomme ich die Technik vom Hersteller anders verkauft, als sie wirklich ist? Ich freue mich auf mögliche Korrekturen, gerne aufgund eines selbst durchgeführten Vergleiches jpg/raw bezüglich der optimalen Belichtung für die Weiterverarbeitung. Ich fotografiere nicht mit KB, und auf mfT kann man sich keine Schlampereien erlauben, da sollte man auf den Punkt treffen.

Grüsse aus der Eifel
maro
 
Hallo Gerd,
Danke für den link. Den Inhalt kann ich aber nicht bestätigen, dass bei ISO 100 die Dynamik besser wird, im Gegenteil. Panasonic sagt, es wird schlechter und ich stelle fest, es wird schlechter. Wenn man aber die viele Dynamik nicht braucht, bei Tele oder z.B. oder Sachaufnahmen mit kontrolliertem Licht, dann steigt die allgemeine BQ, bessere Details, weniger Rausch. Da ich fast alles mit Bracketing und anschliessender hdr-Verarbeitung mache (so, dass man das hdr nicht sieht), ist der Dynamikverlust ebenfalls kompensierbar. Habe ich es übersehen? Sind die Kurven in dem link zu jpg oder raw?
Meine Pentaxxen erlauben auch Verringerung der Grund-ISO, mit den selben Auswirkungen: Verlust an Dynamik und Gewinn an Rauscharmut.
Ich brauche das primär bei Sonne, tiefblauem Himmel und Weitwinkel. Dann ist die Rauschverminderung im Blau schon sehr nützlich.
Im Modus raw fällt der Dynamikverlust ( Lichterzeichnung) weniger auf, ist aber auch erkennbar.
 
...
Jetzt kommt der Switch zu raw: Die Kamera zieht die raws nicht entsprechend hoch
...

Hier mal der Original-Text bzgl. i Dynamic von Panasonic:

i. Dynamic
This setting will change contrast and exposure when there is a big difference from the darkest area to the brightest are in your image. What really happens is that the camera adjusts the exposure in order to capture more details in the highlights. You can choose between High, Standard, Low or Off.

This naturally causes an under-exposure in the shadow areas. But inside the jpeg engine, the camera will compensate for this by boosting shadows. The downside here is that this will obviously lead to more noise in the boosted regions, but because this is done with data directly coming from the sensor, it can be quite useful if you are a jpeg shooter.

There is also an impact on RAW images, because the exposure will be underexposed.


Wie kommst du darauf das die RAWs 'hochgezogen' werden sollten ?
 
Du must die RAWs erstmal passend entwickeln, bevor du sie mit den entwickelten jpg der Kamera vergleichen kannst.
Ich halte deinen jpg workflow mit den Bilderserien für umständlich, da kann man gleich RAWs erstellen und die sauber entwickeln.
Hat man mal eine Grundeinstellung gefunden, dann kann man die als Basis beim Import drüber ziehen.
 
Man kann sich mit dieser Frage lange beschäftigen und an seinen Bildern rumdocktern. Vielleicht geht ab und an auch noch was.

Nach meine Erfahrung lohnt es aber nicht (es sei denn es macht einem sehr viel Spaß und man hat viel Zeit) für eventuell die letzten 5% an Leistung 50 oder 100% mehr Aufwand zu betreiben.
 
Zuletzt bearbeitet:
Liebe Antwortengeber,
ich kann ein raw entwickeln, das ist nicht die Frage.
Unnötige Arbeit mache ich mir auch nicht.
Wer hat gesagt, dass raws hochgezogen werden sollen?
Das genaue Aussuchen der raw-Belichtung bringt mehr als "5%" Fortschritt.
Vieleicht kann ja jemand etwas zur ursprünglichen Frage konstruktiv beisteuern? Dazu gehört allerdings Arbeit, das ist nicht mit Allgemeinplätzen oder "guten Ratschlägen" zu lösen.
Grüsse aus der Eifel
maro
 
Re: Grundempfindlichkeit µ4/3 ISO 200/24°?

Jetzt der schuftige Gedanke: Was ist, wenn die Kamera alle JPEGS um eine Blende unterbelichtet, sie intern hochzieht und das nach außen keinem sagt? Verbesserte Lichterzeichnung wäre die Folge ...
Was heißt hier "schuftiger Gedanke"!? Genau so wird das gemacht, schon immer, bei allen Digitalkameras.
 
Mir ist bewusst, dass man ein raw nicht ansehen kann. Mein Viewer irfan view zeigt mir trotzdem eine Illusion des raws, und meine Augen sagen: das ist so gruselig hell, das würde ich ohne Vorwissen gleich in den Mülleimer tun. Aber ich weis, das ist eine Illusion, wer hat je ein raw gesehen?

Selbstverständlich kannst du das RAW ansehen - z.B. im RawDigger. Manche Konverter - z.B. RawTherapee - zeigen dir auch ein echtes RAW-Histogramm, und in RawTherapee kannst du sogar das Demosaicing ganz abschalten und dann in der 800%-Ansicht die Helligkeit jedes roten, grünen und blauen Pixels einzeln beurteilen
 
Hallo Rodinal,
ein wenig OT, aber es interessiert mich:
Wenn raw therapee Dateien ohne demosaiking ermöglicht, kann man dann auch z.B. 10 Reihenaufnahmen stacken und im Sinne von Auflösungssteigerung, wie bei OM1 oder GH6 "handheld pixel shift" zu einer effektiven Auflösungssteigerung benutzen? Die bunten Farbkacheln müssen danach natürlich wieder weg...
Wenn ich 10 "nomale" demosaikierte und interpolierte Dateien in mein stacking-Programm werfe, bekomme ich KEINE Steigerung der effektiven Auflösung. Das stacking bringt so nur etwas zur Rauschminderung bei Hochiso.
Vielen Dank
maro
 
Was ist, wenn die Kamera alle jpgs um eine Blende unterbelichtet, das jpg intern hochzieht und das nach aussen keinem sagt? Verbesserte Lichterzeichnung wäre die Folge, alle sagen: Klasse Sensor! Die interne Entrauschung bügelt diese leichte Unterbelichtung gut aus, der Kunde ist zufrieden.
Das kann so nicht sein, man kann ja JPEG und RAW gleichzeitig aufnehmen, hat also eine Aufnahme mit identischen Belichtungsparametern in zwei verschiedenen Formaten vorliegen.

Allerdings bedeuten gleiche Einstellungen weder bei einem JPEG aus der Kamera, noch bei einem JPEG aus einer RAW Entwicklung, zwingend ein gleich helles Bildergebnis.

Aus der gleichen Aufnahme, kann also das Kamera JPEG heller aussehen, als das aus RAW entwickelte JPEG, oder umgekehrt, oder auch gleich hell!

Aber für jedes Bild gilt, je mehr Licht auf den Sensor kommt (Zeit/Blende), um so weniger rauscht es, die ISO sind dabei gar nicht so bedeutend.
 
Hallo daduda,
Du hast natürlich vollkommen recht, ich habe das schlabbrig formuliert. Natürlich sind die Belichtungsparameter für jpg + raw identisch.
Was ich ausdrücken wollte:
Die tatsächliche Belichtung des jpgs für ein optimales Bild ist "eigentlich" zu knapp, aber die Kamera, der Viewer, der Monitor zeigen es "hochgezogen" an. Dadurch steigt die Lichterzeichnung, was 01af auch schon sagte.
Wenn ich das parallel abgespeicherte raw dann bearbeite, merke ich, dass es für ein optimales Ergebnis unnötig dunkel ist und dadurch leidet das Rauschen.
Dann suche ich eine hellere raw-Belichtung.
Ich kann aber in diesem Ablauf keine hellere jpg-Belichtung wählen, weil dann Lichter fehlen.
Dass Kameras intern jpgs knapp belichten und hochziehen, ist mir in gewissen Grenzen verständlich. Ich möchte ein Gefühl dafür bekommen, welches Modell diese Technik in welchem Ausmass anwendet. Mir geht es nicht um ein Prinzip, ob oder ob nicht, sondern um die Frage, in welchem Umfang ist diese Technik sinnvoll, also eine graduelle Frage.
Da eine Metrik reinzubekommen, ist natürlich schwierig, denn auch die Beschreibung "jpg" ist ungenau. Ich befasse mich intensiv mit jpg-Profilen / Bildstilen und stelle fest, dass verschiedene Angebote an Profilen in der Kamera schon Unterschiede in der optimalen Belichtung ergeben. Wenn ich dann zusätzlich an den Kontrastregler eines Profiles gehe, hat das nochmal Einfluss auf die optimale Belichtung.
Das sind natürlich Abhängigkeiten, von denen ein raw frei sein sollte, aber über die verschiedenen Hersteller und Modelle ist bemerkbar, wer "so ganz raw" und wer "weitgehend" raw einbaut bzw verkauft.
Ich bevorzuge z.B. dass die eingestellte WB vom raw berücksichtigt wird. Dem Grundgedanken des raws widerspricht das aber m.E., es ist allerdings praktisch! Es gibt auch Modelle, die raw dezent entrauschen. Wie raw ist das dann?
Wenn ich Zeit habe, werde ich mit anderen Kameras Parallelversuche machen, wie weit die optimale jpg-Belichtung von der optimalen raw-Belichtung jeweils entfernt ist. Das wird aber nach meiner Erwartung auch noch vom KV des Motivs abhängen, keine absolut eindeutige Geschichte.
Dann kommt evtl noch der verwendete raw-Konverter ins Spiel. In meinem hdr-Programm ist Libraw integriert, ich merke von der Konvertierung praktisch nichts, sehr komfortabel.
Grüsse aus der Eifel
maro
 
Zuletzt bearbeitet:
- Ich suche mir das optimal belichtete raw aus und stelle fest, wenn ich eine Belichtung aussuche, die eine Blende mehr ist als beim optimalen jpg, bekomme ich die besten Ergebnisse für raw.

Das heißt nur, dass diese Art der "Überbelichtung" für deine Entwicklung besser passt. Es gibt kein "unbearbeitetes" RAW zu sehen, wie du richtig schreibst, auch wenn dieser Begriff immer wieder verwendet wird. Es gibt höchstens eine Standardentwicklung des RAW-Konverters. Und natürlich die Entwicklungsengine in der Kamera bei der Erstellung des JPEG.

Offenbar weicht deine bevorzugte "Standardentwicklung" von der internen JPEG-Entwicklung in der Kamera ab, weil du eher auf saubere Schatten achtest und dabei bei den Lichtern an die Grenze gehst, wo sie gerade noch nicht ausgefressen sind. Das nennt man, soweit ich weiß, "expose to the right". Die Kamera belichtet wohl eher vorsichtiger für nicht ausgefressene Lichter in den von ihrer Enginge produzierten JPEGs.
 
Ich befasse mich intensiv mit jpg-Profilen / Bildstilen und stelle fest, dass verschiedene Angebote an Profilen in der Kamera schon Unterschiede in der optimalen Belichtung ergeben. Wenn ich dann zusätzlich an den Kontrastregler eines Profiles gehe, hat das nochmal Einfluss auf die optimale Belichtung.
Das ist eine Sisyphusaufgabe, da es sehr viele Parameter gibt die da Einfluß haben, ich weiss nicht ob es die GX9 schon hat, bei der G100 gibt es neben den Bildstilen in die man eingreifen kann, noch die i Dynamik (haben alle Panasonic) und die Helligkeitsverteilung mit 4 Vorgaben und 3 vom Benutzer anzulegenden Gradationskurven.

Das sind natürlich Abhängigkeiten, von denen ein raw frei sein sollte, aber über die verschiedenen Hersteller und Modelle ist bemerkbar, wer "so ganz raw" und wer "weitgehend" raw einbaut bzw verkauft.
Ich bevorzuge z.B. dass die eingestellte WB vom raw berücksichtigt wird. Dem Grundgedanken des raws widerspricht das aber m.E., es ist allerdings praktisch! Es gibt auch Modelle, die raw dezent entrauschen. Wie raw ist das dann?
Wie "raw" das RAW technisch gesehen ist finde ich relativ unwichtig, es ist das was die Kamera ausgibt und was man beurteilen und vergleichen kann.
Ob der Hersteller schon in der Kamera optimiert, oder der Rawkonverter beim öffnen, spielt für den Anwender keine Rolle, es ist eben das was man sieht wenn man ein RAW mit Adobe, C1, oder DXO öffnet.

Eventuell könnte der Ansatz anders herum funktionieren, wenn man die optimale Belichtung für RAW hat, diese benutzen und den dazu passenden Bildstil in der Kamera suchen/kreieren.
 
...Wenn raw therapee Dateien ohne demosaiking ermöglicht, kann man dann auch z.B. 10 Reihenaufnahmen stacken und im Sinne von Auflösungssteigerung, wie bei OM1 oder GH6 "handheld pixel shift" zu einer effektiven Auflösungssteigerung benutzen? ...

"pixel shift" bedeutet, dass der Sensor mittels der, eigentlich zur Stabilisierung vorgesehenen Sensorverschiebung dazu "missbraucht" wird, mehrere Aufnahmen mit definierter Verschiebung um den Anstand der "Bayer-Kacheln" anzufertigen.
Das gleiche Detail in der Fotoszene wird dann z.B. nicht nur durch die grüne "Kachel" aufgenommen, sondern danach noch durch den roten und danach durch die blauen Filter.

Bei unbewegtem Szenendetail und unbewegter Kamera wird also das Detail jeweils mehrmals, um einen "Kachelabstand" verschoben aufgenommen.

Sobald sich das Objektdetail oder die Kamera zwischen den den einzelnen "Shifts" bewegt, kann die Kamera bzw. das geeignete Bearbeitungsprogramm nicht mehr zwischen den Aufnahmen die Details unterscheiden, die bewusst fürs "Pixel Shift" per Sensorverschiebung oder die, störend durch die Verwacklung der Szenerie oder der Kamera erzeugten nacheinander erzeugten Teilbilder unterscheiden.


"Handheld Pixel Shift" bedeutet imho nichts anders, als dass technische "Tricks" sowohl die Zeiten fürs "Pixel Shift" und das Auslesen der Teilbilder verringert werden.

Eventuell kann dann die Kamerasoftware durch, wegen des schnellen Prozessors mögliche ausgefeilt Algorithmen beim Vergleich der Teilbilder zwischen "Sensor Shift" und Verwacklung unterscheiden. Da gibt es, basierend auf den Fortschritten der digitalen Signalverarbeitung zur Bildstabilisierung von Videos bestimmt noch Potenzial.


Ich bezweifle, dass man ohne entsprechende Unterstützung der Kamerahardware klassische Serienfotos nachträglich so aufbereiten kann, dass auch nur annähernd die gleiche Ergebnisse erzielt.


...Wenn ich 10 "nomale" demosaikierte und interpolierte Dateien in mein stacking-Programm werfe, bekomme ich KEINE Steigerung der effektiven Auflösung. Das stacking bringt so nur etwas zur Rauschminderung bei Hochiso.


Das ist technisch völlig logisch und einfach erklärbar.

Man nimmt genau eine, idealerweise Pixel für Pixel gleich Szene mehrmals auf.

Die Nutzinformation, also alles vor dem Sensor ändert sich idealerweise nicht.

Der Sensor nimmt diese Information auf.

Bei HighIso überlagert sich dieser Nutzinformation aber noch eine störende Fehlinformation durch das thermische Rauschen bei der Signalverarbeitung.

Zum Glück ist die Verteilung dieses Rauschen zufällig. Sprich, bei mehreren Aufnahmen in Reihe "erwischt" das Rauschen die Pixel in unterschiedlicher Intensität.

Bei mehreren Fotos erwischt es also jedes Pixel mal mehr oder weniger. Durch das Stacking wird bei gleicher Nutzinformation die, bei jedem Bild unterschiedliche Störinformation pro Pixel "gemittelt".


Kann man übrigens gut bei Videos beobachten. Ein HD oder 4K Video wirkt deutlich rauschärmer ein als Einzelfoto unter gleichen Aufnahmebedingungen.

Gruß
ewm
 
Re: Grundempfindlichkeit µ4/3 ISO 200/24°?

Wenn ich zehn "nomale" interpolierte Dateien in mein Stacking-Programm werfe, bekomme ich KEINE Steigerung der effektiven Auflösung. Das Stacking bringt so nur etwas zur Rauschminderung bei Hoch-ISO.
Das gilt so nur, wenn deine "normalen" Dateien wirklich aufs Pixel genau den gleichen Bildinhalt haben.

Verschiebt sich aber der Bildausschnitt von Aufnahme zu Aufnahme auch nur um eine Winzigkeit, so wie etwa bei einer freihändig aufgenommmenen Bilderserie, dann erhöht sich durch das Stapeln der Einzelbilder selbstverständlich auch die effektive Auflösung. Aus diesem Grunde funktioniert der Freihand-HighRes-Modus – der vermindert das Rauschen und erhöht die Auflösung.
 
Wenn ich 10 "normale" Aufnahmen aus der Kamera in ein Stacking Programm werfe, auch wenn sie nicht pixelgenau sind, kann die Auflösung nicht steigen.
Es ist ein grundsätzlicher Unterschied, ob ich hinterher stacke oder die Kamera Freihand-highres kann.
Beim nachträglichen Stacken sind die Aufnahmen alle schon vorher entbayert und interpoliert. Diese Massnahmen begrenzen die Schärfe.
Wenn eine Kamera Freihand-highres kann, werden die Aufnahmen vor dem Entbayern verrechnet, so kann die Schärfe gesteigert werden.
Das normale Stacking, egal von Stativ oder Freihand, führt i.A. zu einer SCHLECHTEREN Schärfe als die einer Einzelaufnahme, bitte ausprobieren!
Ich habe mit anderen experimentierfreudigen Bastlern gesprochen, die sich etwas von Stacking versprachen, aber die alle zum Schluss kamen, die Schärfe steigt nicht. Wenn ich praktische saubere Gegenbeispiele sehe, gerne! Rauschvermindern klappt aber prima, ewm beschreibt das m.E. richtig.
--------------------------
Für die Zukunft denke ich an einen Betriebsmodus, wo die Kamera für Freihand-highres z.B. 10 einzelne raws schreibt, die nicht entbayert sind und deshalb auch nicht interpoliert zu werden brauchen.
Das highres entstünde dann erst im Rechner.
Ich sehe die Klippe, dass der Kamerahersteller sich für eine spätere Verarbeitung am PC mit Drittsoftware zu sehr in die Karten schauen lassen müsste, was er vorauss. nicht macht, aber auch das ist lösbar. Zu einer solchen Kamera liefert der Hersteller seine eigene Software einfach auf einem Stick mit und alles bleibt in seiner Hand. Die Vorteile:
- Die Kamera braucht nur zu schreiben, das dauert nicht lange, sie braucht nicht zu verrechnen. Sie könnte ein einzelnes jpg zusätzlich abspeichern, damit man die highres-Serie vorab "sehen" kann.
- Der PC zuhause kann besser rechnen als die Kamera, mehr Optionen.
Meine Denke: Freihand highres braucht deutlich mehr Rechenleistung als das Stativ-pixelshift von Pentax ( 4 Aufnahmen, keine erhöhte Ausgabegrösse). Das Oly- und Pana-Procedere vom Stativ braucht schon mehr Rechenleistung als Pentax, mehr Aufnahmen. Das Freihand-System ist viel Rechenarbeit, warum macht man das nicht zuhause? Es wären auch bei statischen Motiven mehr Aufnahmen möglich, was die Auflösung weiter steigert. Für einen Statistiker, ich kann das nicht, wäre es interessant zu berechnen, ab welcher Aufnahmezahl ein Freihand-highres nicht mehr effektiv besser wird. Ich werfe einmal die Zahl 20 in den Raum.
Die Ergebnisse mit Pentax K1-II lassen aber erkennen, dass deren Freihand-highres-Modus zu wenige Aufnahmen macht für einen deutlichen Fortschritt oder Pentax rechnet ungünstiger oder beides.
Auf diesem Gebiet wird sich noch viel tun. Wenn ich von Apple höre, was die in Bezug auf highres im Mobiltelefon investieren und können, sehen die Kamerahersteller alt aus. Wenn man das Geld sieht, welches dahintersteckt, versteht man es. Ich hätte gerne ein wenig mehr Apple in meiner Pana.
Grüsse aus der Eifel
maro
 
WERBUNG
Zurück
Oben Unten