• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Steht es wirklich SO schlecht um die Branche?

Alles über 50 mm wird auch auf längere Sicht ein Problem bleiben bei den Smartphones. Gerade hier könnten die Kamera-Hersteller mit ihrer besseren Aufnahmetechnik in Verbindung mit besserer Software noch viel herausholen in Richtung Vereinfachung, aber auch in Richtung erweiterter Möglichkeiten.

Der Bereich vom Ultraweitwinkel bis 50 mm langt allerdings den meisten um die Bilder des Alltags und Urlaubs zu machen. In diese Kategorie fallen ja auch die Edelkompakten mit Festbrennweiten. Werden hoch gelobt, aber erreichen kaum Stückzahlen.
 
Alles nicht, aber vieles. Für AL/Rauschen kommt es nur auf die Gesamtfläche an, Bokeh besorgt die immer besser werdende Software auf der Basis von Fokusreihen, die unbemerkt vor der eigentlichen Aufnahme gespeichert werden. Übernächstes Jahr kannst Du am Handy Blendenwert und -form sowie Brennweite fürs Bokeh auswählen und den Rest macht die Software mit ihren "Tricks".

Ich bin bei Dir, dass es Verbesserungen der Software geben wird, trotzdem muss man sich überlegen, wo die physikalischen Grenzen sind.

Die liegen meines Erachtens in der Brennweite (=der Platz vor dem Sensor) und in der Zeit.

Will man ein Bokeh aufgrund von Fokusreihen berechnen, dann wird das niemals dazu führen können, dass man ein bewegtes Motiv zufriedenstellend mit Bokeh einfrieren kann, dem Sinne das etwas dabei herauskommt, was einer Belichtungszeit von z.B. 1/1000 entspricht.

Was ist mit Unschärfe vor dem Motiv? Was ist mit dem Verlauf der Unschärfe?
Die Algorithmen, die wir im Moment haben sind im Prinzip nur Unschärfefilter. Ich könnte mir durchaus vorstellen, dass dies durch die LIDAR-Technik noch besser wird, aber es gibt einfach physikalische Grenzen.

BTW: es ist ja nicht so, dass aktuelle DSLMs mit ihrer Prozessorpower nichts anfangen würden. Die fließt meist in den AF, der hier prinzipbedingt viel besser sein muss als bei einem Smartphone oder vor allem aktuell in Augen-AF-Geschichten.

Auch 20 Bilder/s schießen zu können, in JPG zu wandeln und auf der SD-Karte abspeichern zu können benötigt enorme Rechenpower.
 
Software ist dazu da, physikalische Grenzen zu überwinden. -WEIL- man "trickst", schöner, pfiffige Ideen realisiert, die visuell möglichst unauffällig sind. Und wenn es superscaling in Verbindung mit Denoising ist, dann kann ein Teilbereich eines kleinen aber hochauflösenden Sensors zum Zoom* benutzt werden. Dieser Pixelwettkampf in Smartphones kommt ja nicht von ungefähr. (Die Panoramafunktion in Smartphones ist schließlich auch nur eine pfiffige Idee - und überwindet "physikalische Grenzen")

Unschärfe wird weniger mit Bildreihen, sondern mit mehreren gleichzeitig geschossenen Fotos* oder mit Tiefeninformationen* produziert, alles schon existent und in Consumergeräten verbaut.

* Zusammenfassung Smartphone Unschärfe und 50x Zoom im P30
 
Zuletzt bearbeitet:
Software ist dazu da, physikalische Grenzen zu überwinden.

Wenn man es überwinden kann, ist es keine physikalische Grenze. Was Du meinst ist einfach einen anderen Weg zu suchen um ein ähnliches Ergebnis zu erzeugen.
z.B. würde es Dir nichts nützen einen APS-C-Sensor in einem Smartphone zu verbauen, weil die Du dafür notwenige Brennweite nicht bedienen kannst, denn die benötigt Platz vor dem Sensor.

Unschärfe wird weniger mit Bildreihen, sondern mit mehreren gleichzeitig geschossenen Fotos* oder mit Tiefeninformationen* produziert, alles schon existent und in Consumergeräten verbaut.

Ja, das sind alles Tricks, die einen gewissen Wow-Effekt auslösen. Aber wenn Du dann mal ein Model mit Brille und wehenden Haaren fotografierst, merkst Du sehr schnell, dass hier eben keine physikalischen Grenzen überschritten werden. Es ist nur ein Zaubertrick, der das vorgaukelt, genauso wie ein Zauberer ja auch keine physikalischen Grenzen überschreitet, wenn er es so aussehen lässt, als würde er eine Frau zersägen. :)
 
Du scheinst unter "physikalische Grenze" etwas anderes zu verstehen.

Für mich ist die Schallgeschwindigkeit (hier: in Luft...) eine physikalische Grenze. Aber es nicht verboten und offenbar nicht unmöglich, diese zu überschreiten.
Gegen physikalische GESETZE kann man nicht verstoßen.

Karl
 
@JensZerl
Ich weiss nicht, warum Du Dich so gegen computergestützte Hilfe wehrst. Sieh es so: Jeder Astro-Fotograf muss in diese Trickkiste greifen, jedes Bild, das aus Raw nach jpg gewandelt wird, hat einen Haufen Trickkiste hinter sich. Und wenn ein Smartphone mittels Phasendifferenz Tiefeninformationen extrahiert und das Ergebnis ok ist, dann ist es halt ok. Man kann sich über die Motivränder beschweren - aber genau solche Bilder schwirren in Chats und SocialCommunities rum..

Ich mutmaße, es ist dieses "echte Fotografie geht so und so"-Dogma.. Und ich gehe schwer davon aus, dass uns noch ganz tolle Algorithmen bevorstehen..

edit: eine physikalische Grenze ist zB wenn der Sensor aufgrund seiner Größe eine geringere SNR hat und Software diese verbessert. Die Verbesserung ist synthetisch. Wenn Auflösung hinzugerechnet wird (ich habs ja schon oben geschrieben, ein Bayer-Raw ist 66% errechnet) - alles Computerzauber.
 
Zuletzt bearbeitet:
Und ich gehe schwer davon aus, dass uns noch ganz tolle Algorithmen bevorstehen..

Unvermeidlich, da Rechenleistung der Hardware und Leistungsumfang der Software weiter steigen und immer mehr Mängel der Aufnahmetechnik ausgleichen werden. Und ob nun Bilder gestapelt werden, um Rauschen loszuwerden oder ob nur länger belichtet wird oder ob ein größerer Sensor benutzt wird ... sind alles nur "Tricks". Hersteller, die sich dem Thema Software nicht zuwenden, werden es in Zukunft schwerer haben.
 
Du scheinst unter "physikalische Grenze" etwas anderes zu verstehen.

Für mich ist die Schallgeschwindigkeit (hier: in Luft...) eine physikalische Grenze. Aber es nicht verboten und offenbar nicht unmöglich, diese zu überschreiten.

Lichtgeschwindigkeit ist eine physikalische Grenze, Schallgeschwindigkeit nicht - es ist einfach die Geschwindigkeit mit der sich Schall fortpflanzt und das verursacht ein paar Probleme in gewissen Bereichen, aber eine physikalische Grenze ist dies eben gerade nicht.

Gegen physikalische GESETZE kann man nicht verstoßen.

Genau. Und deswegen kannst Du z.B. in einem flachen Smartphone niemals ein Objektiv mit z.B. 23mm Bennweite verbauen, weil Du sonst mindestens 23mm vor die Linse kommen müsstest. Also bis Du auf einen kleinen Sensor angewiesen, damit der Abstand zwischen Sensor und Objektiv gering sein kann.
 
Zuletzt bearbeitet:
@JensZerl
Ich weiss nicht, warum Du Dich so gegen computergestützte Hilfe wehrst. Sieh es so: Jeder Astro-Fotograf muss in diese Trickkiste greifen, jedes Bild, das aus Raw nach jpg gewandelt wird, hat einen Haufen Trickkiste hinter sich. Und wenn ein Smartphone mittels Phasendifferenz Tiefeninformationen extrahiert und das Ergebnis ok ist, dann ist es halt ok. Man kann sich über die Motivränder beschweren - aber genau solche Bilder schwirren in Chats und SocialCommunities rum..

Ich mutmaße, es ist dieses "echte Fotografie geht so und so"-Dogma.. Und ich gehe schwer davon aus, dass uns noch ganz tolle Algorithmen bevorstehen..

Eigentlich ist das Gegenteil richtig. Ich bin von Beruf ja Informatiker und versuche daher nur deutlich zu machen, dass die Dinge, die wir sehen im Prinzip Zaubertricks sind, die unter ganz bestimmten Umständen funktionieren.

Daran ist auch nichts falsch. Es wäre lediglich falsch sie so zu interpretieren, dass man sie immer nur besser machen müsste um das was sie vorgaukeln wirklich zu erreichen.
Wenn ein Zauberkünstler seinen Trick eine Frau zu zersägen immer weiter übt und perfektioniert - wird das jemals dazu führen, dass er eine Frau wirklich zersägen kann, ohne dass sie Schaden nimmt? :)
 
Zuletzt bearbeitet:
:) ich habe auch mit coden zu tun..
..die Dinge, die wir sehen im Prinzip Zaubertricks sind, die unter ganz bestimmten Umständen funktionieren...
Das sind sehr viele ständige, ganz bestimmte Umstände.

..besser machen müsste um das was sie vorgaukeln wirklich zu erreichen...
Nein. Sie müssen nicht erreichen, sie müssen nur gut genug sein, um ein "Ah, läuft doch" beim Nutzer auszulösen. Wieder das Beispiel Bayer-Sensor und Demosaicing.. Ein Schelm, der sagt, aktuelle Demosaicing-Algorithmen würden einen echten RGB-Sensor vorgaukeln und hätten schon das Optimum erreicht.

Bin beim Thema nun raus, dreht sich ja jetzt im Kreis. Meinung gegen Meinung.

mfg chmee
 
Zuletzt bearbeitet:
:) ich habe auch mit coden zu tun..

Das sind sehr viele ständige, ganz bestimmte Umstände.


Nein. Sie müssen nicht erreichen, sie müssen nur gut genug sein, um ein "Ah, läuft doch" beim Nutzer auszulösen. Wieder das Beispiel Bayer-Sensor und Demosaicing.. Ein Schelm, der sagt, aktuelle Demosaicing-Algorithmen würden einen echten RGB-Sensor vorgaukeln und hätten schon das Optimum erreicht.

Bin beim Thema nun raus, dreht sich ja jetzt im Kreis. Meinung gegen Meinung.

Warum muss man da „raus sein“? Es ist ein Gedankenaustausch, wo es nicht darum geht, dass einer Recht hat.

Und wenn Du Dir meine Postings ansiehst, dann habe ich da ja auch geschrieben, dass die Fotobranche nichts, aber auch gar nichts machen kann, dass Leute wieder Kompaktkameras kaufen, denn dafür sind Smartphones einfach zu gut.

Aber sie ersetzen eben Kompaktkameras und diese selbst haben es ja nie geschafft DSLRs/DSLMs zu ersetzen, warum sollte das Smartphone dies tun?

Selbst wenn ein Smartphones qualitativ Bilder wie eine DSLM machen würde, hätte sie immer noch keine Ergonomie, die einen Fotografen zufriedenstellen würde, keinen Sucher und keinen mechanischen Verschluss.
 
Warum muss man da „raus sein“?
Bei der Frage um "Software kann (und wird) Hardware aufpolieren".. Die eigentliche Frage.. naja, da wurde schon von vielen geschrieben..
Aber sie ersetzen eben Kompaktkameras und diese selbst haben es ja nie geschafft DSLRs/DSLMs zu ersetzen, warum sollte das Smartphone dies tun?

Selbst wenn ein Smartphones qualitativ Bilder wie eine DSLM machen würde, hätte sie immer noch keine Ergonomie, die einen Fotografen zufriedenstellen würde, keinen Sucher und keinen mechanischen Verschluss.
Ich habe in meinem Gedankengang stets früher angesetzt. Als zum Bildmachen stets i.was wie ne Kamera benötigt wurde, also eher die analoge Zeit. Dann kam digital, damit der Kompaktkamera-Ersatz und dann das Smartphone.

Ja, ein Smartphone wird DSLR/DSLM nicht per se ersetzen. Aber jede Eigenschaft, die den Großen vorbehalten war, und nun einigermaßen adäquat in nem Smartphone nachgemacht werden kann, ist ein weiterer Punkt gegen ne große Kamera. Witziger eher, Gadgets, die in nem Smartphone existieren, aber nicht in den Großen. Knippsen, schicken. 360° oder Panorama out of the Box, Bildstil rüberbügeln, Snapchat-Witzig-Zeug. Ist alles nicht Höchstklasse, aber ausreichend gut, dass man es vorzeigen kann. Sogar für ne Postkarte würde es noch reichen.

Wenn jemand der Faszination Fotografie verfällt, ist Smartphone kein Thema.
 
Ja, ich würde es auch so sehen, dass das Smartphone ein Teil der Möglichkeiten ist. Es hat Schnittmengen mit DSLMs, während es aber die Menge der Kompaktkameras komplett abdecken kann.

D.h. Fotohersteller können nur noch mit Leuten Geld verdienen, die Funktionen benötigen, die außerhalb dieser Smartphone-Schnittmenge liegen.
 
Die Intention meiner Aussage war nicht, dass man mit Smartphones nicht "fotografieren" kann, sondern, dass der interessierte Neuling mit Sicherheit nicht nach Smartphones stöbern wird..

By the way gebt Ihr mir soweit recht, dass ein Smartphone als "Fotoapparat" also doch funktionsfähig ist und das größere Geschirr ersetzen kann - wenn auch nicht für alle Zwecke/Motive, dafür aber mit anderen (noch exklusiven) Eigenschaften.

mfg chmee
 
Zuletzt bearbeitet:
By the way gebt Ihr mir soweit recht, dass ein Smartphone als "Fotoapparat" also doch funktionsfähig ist und das größere Geschirr ersetzen kann -

Dass es als Fortoapparat funktionsfähig ist habe ich nie bestreiten wollen. Im Gegenteil - ich sage ja sogar, dass es Kompaktkameras von früher vollständig ersetzen kann und dass es hier auch keinen Weg mehr zurück gibt - egal wie gut Kompaktkameras werden würden.

Nur konnten Kompaktkameras eben ihrerseits auch nie DSLRs/DSLMs ersetzen und deswegen denke ich auch nicht, dass dies bei Smartphones der Fall sein wird.

wenn auch nicht für alle Zwecke/Motive, dafür aber mit anderen (noch exklusiven) Eigenschaften.

Ja. Die exklusivste Eigenschaft ist eigentlich die, dass man es immer dabei hat. Schon alleine deswegen ist es erstrebenswert dass die Qualität soweit gesteigert wird, wie nur irgendwie möglich.
 
dass es Kompaktkameras von früher vollständig ersetzen kann

Noch nicht ganz. Es gab auch unter den ganz kompakten Kameras einige mit Telebrennweiten bis 200 mm. Darauf muss man bei Smartphones bis auf weiteres verzichten.

Auf der anderen Seite wird gegen Ende des Jahres LIDAR in Smartphones eingeführt, womit das Motiv samt Hintergrund exakt vermessen werden kann. Für die Berechnung perfekter Bokehs mit frei wählbaren Objektivparametern steht die Hardware damit vollständig zur Verfügung und es ist dann nur noch eine Frage relativ kurzer Zeit, bis die Software dafür immer besser wird. Fällt also bald auch noch der Hauptgrund für leichte Telebrennweiten weg.

Bleiben für die klassische Fotografie noch Sport und wild lebende Tiere, wenn es ihr nicht gelingt, in anderen Bereichen den Abstand zu Smartphones vergrößern.
 
* ich habe oben dieses P30 Video verlinkt. 10x Zoom sehen verdammt gut aus, das wären äquivalente ~420mm. 50x ist schon sehr artificial, aber, macht trotzdem was her - und wenn es nur zur Informationsgewinnung ist ("auf dem Schild steht wirklich "...") (oder hier das P40 Pro mit 100x Zoom)

* Lidar (im grafischen Consumerbereich) gibt es schon länger, unter anderem von Intel (Realsense genannt und zB in der kinect und in HP-Laptops verbaut) - und woran sie scheitern ist die geringe Auflösung. Ergo müsste man wieder eine längere Zeit mitscannen um ausreichend Daten für "ausreichend gute" Tiefeninformationen zu erhalten. An Haaren und Brillen wird auch so ein System scheitern. Da bin ich mir sicher. Die Reviews für das neue iPadPro sind jetzt in Sachen Fotografie durchweg gut, das hat aber nix mit Lidar zu tun. Lidar wird für AR und 3D-Scans/Photogrammetrie verwendet. Was ich damit sagen will, Lidar wird die Bokeh-Geschichte nicht so sehr vorantreiben, wie Du das beschreibst.

In beiden Fällen helfen Rechenknechte, um aus Daten Bildeigenschaften zu machen. Um es nochmal runterzubrechen: Aktuelle Mittelklasse-Smartphones machen verdammt gute Fotos. Und letztlich, meine Antwort auf die Frage des Threads. Ja. Wenn sich die großen Player nicht deutlich weiterbewegen, wird sich der Markt massiv ausdünnen. (Sony hat, nebenbei, einen Sensor gebaut, der Objekterkennung/AI auf dem Sensor hat - das hat weniger Auswirkungen auf den Fotomarkt, eher auf Surveillance, Robotik oder Fertigungsstraßen. S. streckt seine Imaging-Fühler also auch auf andere Bereiche aus, vielleicht in Angst, dass sich Sensorentwicklung sonst nicht mehr rentieren würde)

@Jens Zerl
.. Die exklusivste Eigenschaft ist eigentlich die, dass man es immer dabei hat. ..
Das ist der wichtigste Punkt. Das Smartphone mit seinen Universaleigenschaften hat man einfach dabei - wobei ich es nicht exklusiv nennen würde, das ist nur einer gewissen Faulheit geschuldet. Wie oft komme ich nach Hause und fluche, weil ich Bild X nicht mit der Großen geschossen habe..
 
Zuletzt bearbeitet:
Die Tele-Aufnahmen sind tatsächlich unerwartet gut. Aber die verwendeten Leicas sind auch keine ganz normalen Smartphone-Kameras. Sie haben einen umgelenkten Strahlengang und machen das Gerät eher zu einer Kamera mit Smartphone als zu einem Smartphone mit Kamera.


Das meinte ich. Indem das Bild vermessen wird, stehen viel bessere Daten zur Verfügung, um auch realistischere Bokehs zu produzieren. Kann natürlich sein, dass es Problemzonen gibt, aber die die Entwicklung bleibt sicher nicht stehen.

Nur klassische Kamera-Marktführer sind dabei bislang außen vor. Warum?
 
Nur klassische Kamera-Marktführer sind dabei bislang außen vor. Warum?
Weil die schon vor einem halben Jahrhundert wussten, wie man es richtig macht.


Gegenfrage: Wie lange würden die Systemkamerahersteller noch überleben, wenn dies mit einfachen Kitobjektiven machbar wäre?
 
WERBUNG
Zurück
Oben Unten