• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Bin schockiert - Tiefenunschärfe aus dem IPhone.

Status
Für weitere Antworten geschlossen.
Das filmen geht damit in meinen Augen schon besser als mit einer DSLR, zumindest was die Nikons anbelangt.

Besser als Nikon zu sein ist ja auch keine besondere Herausforderung.
 
Wieso sollte das nicht helfen?!
Der Unterschied ist doch einfach physikalisch bedingt... :ugly:
Bei einer ILC kannst du das Objektiv wechseln und somit flexibel an die Situation anpassen..bei einer ILC ist der Sensor größer und somit auch die Menge der eingefangenen Photonen und letztlich deshalb vorallem die Informationsdichte größer!

Das sind in Summe einfach Fakten die sich durch "Software" nicht ändern lassen...die Fortschritte in der Software lassen sich dagegen aber durchaus auf ILCs übertragen...sowohl direkt in deren Firmware als auch indirekt über "klassische" EBV!

Wer meint das Software dazu in der Lage ist physikalisch Gegebenheiten und Grundsätze auszuhebeln, sollte sich überlegen ob er nicht doch etwas zu sehr von den Werbeversprechen von Apple, Google&Co. täuschen lässt.

Ja, über clevere Verfahren und Algorithmen ist vieles möglich und grade was Neuronale Netze und Machine-Learning angeht tut sich momentan enorm viel...aber man sollte sich bei aller Euphorie davon nicht täuschen lassen was damit wirklich machbar ist und was nicht.

Und der Faktor Mensch ist hier noch gänzlich außen vor gelassen...bis Maschinen wirklich Quasi-menschliche Kreativität und gestalterisches und schöpferisches Potenzial erreichen, vergehen noch ein paar (mehr) Tage.
Zu nem guten Bild gehört ja wohl noch mehr als nur abzudrücken.

Ich glaube Du bist da ein wenig weg von der Realität, wenn Du annimmst, dass Software nie in der Lage sein wird, fast alles was ein Objektiv simuliert, nicht auch bald simulieren kann. Warum sollte das nicht gehen?

Wie schon erwähnt: Bokeh, Studiobelichtung sind gerade der Anfang und das Bokeh gibt es jetzt bei allen großen Herstellern serienmäßig und es ist schon wesentlich besser als die erste Variante von Apple letztes Jahr. Das wird auch in Zukunft nicht schlechter, sonder immer besser. Genauso wie mit der Belichtung. Als nächstes extrem Crops mit bester Qualität, Panorama gibt es ja schon und das ist auch schon recht beeindruckend. Fehlt noch bessere Lowlighfähigkeit, Wildlife und Sport, bis dahin ist der Weg noch ein Weilchen.

Die wenigsten wollen am Ende schleppen, zusammebauen, auseinander bauen, wenn sie den größten Teil an Eigenschaften in einem Gerät bekommen und wenn es eine Software ist die Fotos zusammenrechnet, so what. Hauptsache das Ergebnis stimmt. War schon immer so, wird auch immer so bleiben...
 
das stimmt, ist aber gar nicht der Punkt. Relevant ist alleine, ob die Informationsdichte für Zweck XY reicht oder nicht.

Natürlich ist das der Punkt.
Auf meinen aktuellen Anzeigegeräten, die mehr als 10" Diagonale haben ist der Unterschied in der Informationsdichte klar ersichtlich...oder erwartest du das die Anforderungen dort stagnieren?!

Auch Ausgabeseitig steigen die Anforderungen noch recht kontinuierlich.

ach- sag' nur, Du weißt da mehr als alle anderen?

Na, das man damit keine Schweine zum fliegen bekommt sollte doch klar sein! :rolleyes:

Und genau das suggeriert doch eine Aussage wie: "man könne damit Grenzen verschieben"...tun sie eben nicht...das absolute Niveau mag steigen...die relativen technisch, physikalisch und konzeptionell bedingten Relationen und Unterschiede bleiben aber prinzipiell gleich!

Das ist genauso Unfug wie die Aussage ein Smartphone könne die Rechenleistung eines PCs erreichen...kann es streng genommen nämlich nicht weil die Leistungsaufnahme und die Kühlung die eigentlich limitierenden Faktoren sind.

Ich glaube Du bist da ein wenig weg von der Realität, wenn Du annimmst, dass Software nie in der Lage sein wird, fast alles was ein Objektiv simuliert, nicht auch bald simulieren kann. Warum sollte das nicht gehen?

Weil die Physik ab einem gewissen Punkt einfach immer die Möglichkeiten technischer Systeme limitiert! Alles andere ist Science Fiction.

Aber kannst ja mal gerne den Astronomen erklären wie blöd sie doch sind das sie immer größere Teleskope wollen...könne man ja auch einfach mit ausreichend cleverer "Software" erledigen! :rolleyes:
Genau der gleiche Grund warum ein größerer Spiegel bei einem größeren Teleskop mehr Informationen einfängt, ist auch exakt der Grund warum ein größerer Sensor und ein höherwertiges Objektiv immer mehr Informationen wird einsammeln können, als eine Smartphonekamera mit ihrem extrem eingeschränkten Volumen.
 
Zuletzt bearbeitet:
:lol:
Du bist witzig!

13" Mac Book... :lol:

The iPhone 8 even edged out the score from the 13-inch Apple MacBook Pro with a 7th-generation Core i5 processor. That notebook notched 9,213.8

Und natürlich kann ein Smartphone nicht längerfristig die Leistung eines Laptops und PCs erreichen, aber kurzfristige eben schon und mehr braucht es für Fotos dann eben auch nicht.

Ich wäre da nicht so blauäugig und würde die zukünftige Leistungsfähigkeit von Smartphones auch in Bezug auf Fotos nicht unterschätzen.

Kameras haben klar ihre Vorteile, aber auch eben klar ihre Nachteile. Und deshalb essen die Smartphones gerade den Kameramarkt auf und das wird auch nicht weniger, besonders mit den neuen Features.
 
Und natürlich kann ein Smartphone nicht längerfristig die Leistung eines Laptops und PCs erreichen, aber kurzfristige eben schon und mehr braucht es für Fotos dann eben auch nicht.

Darum ging es in dem Beispiel nicht...zumal solche Äpfel-Birnen vergleiche kaum was bringen. (ARM vs. x86, anderes Betriebssystem, anderer Entwicklungsstand, Spielzeuglaptop etc. pp.)

Eher ging es um die Limitierungen und Differenzen die nicht aus ggf. vorhandenen Technologieunterschieden entstehen sondern aus den physikalischen Rahmenbedingungen.
Was mag denn wohl bloß passieren wenn man nem "äquivalenten" SoC gleichen Tech-Levels eine Kühlung und Leistungsaufnahme wie einem größeren Gerät (bspw. einem PC) gestattet?! :angel:

Also mal so locker(!) rund 400-500W abgeführte(!) (Verlust)Leistung statt nur maximal nem Dutzend.
Drei mal darfst du raten! :evil:

Ich wäre da nicht so blauäugig und würde die zukünftige Leistungsfähigkeit von Smartphones auch in Bezug auf Fotos nicht unterschätzen.

Ich unterschätze garnix...nur was unterscheidet die Smartphones da von anderen Handhelds wie ILCs?!

Die Limits die beide Geräteklassen bezüglich Leistungsaufnahme und Rechenleistung unterliegen sind einfach vom Formfaktor bedingt noch recht ähnlich...eine ILC kann aber im zweifel aber immer mehr Informationen einfangen und dann auch ggf. weiterverarbeiten...weil der Sensorik einfach mehr Platz eingeräumt wird.
Und letztlich basiert digitale Fotografie auf Daten und Informationen...je mehr Informationen und je saubere Daten man erfassen verarbeiten kann, desto höherwertiger wird letztlich die Analyse und das Ergebnis nach der Verarbeitung.

Das ist eine Eigenschaft die sich mit künstlichen und rein synthetischen Informationen schlicht nicht wird kompensieren lassen!

D.h. nicht das die Smartphones nicht besser werden, sondern nur das deren Entwicklungspotenzial Softwareseitig in Summe nicht wesentlich größer oder kleiner als das einer ILC ist.
 
Zuletzt bearbeitet:
Also ganz im Ernst: das ist doch nun wirklich nichts Neues. Künstliches Bokeh gabs am Computer schon seit vielen Jahren. Und selbst wenn diese Technologie irgendwann mal 100% funktionert geht mir das immer noch völlig am Allerwertesten vorbei.

Wow, und für diese Erkenntnis musste ich mir 50 Deppenleerzeichen und 150 überflüssige Ausrufezeichen anschauen?

Cuautehmoc
 
D.h. nicht das die Smartphones nicht besser werden, sondern nur das deren Entwicklungspotenzial wesentlich nicht größer oder kleiner als das einer ILC ist.

Ein letzter Versuch. :rolleyes:

Nochmal: es hilft nichts wenn Kameras, sich genauso schnell oder mit gleichen Potential wie Smartphones entwickeln (was sie nicht tun), wenn sie jetzt schon kaum noch jemand kauft. Es möchte niemand ein zweites oder drittes oder viertes (Objektive) Gerät mehr mit schleppen, wenn es keine signifikanten Unterschiede gibt. Für uns Nerds gibt es die vielleicht, für die Masse werden sich Bokehs, Belichtungen und auch die Qualität der Fotos auf den hauptfrequentierten Ausgabgeräten schon jetzt fast nicht mehr unterscheiden.

Das heißt Kameras müssten sich wesentlich schneller Softwareseitig und auch von der Bedienung her entwickeln, als Smartphones um dem ernsthaft was entgegensetzen zu können. Smartphones sind die Massenkameras und große Kameras werden bald (leider) eine Mininische...
 
Smartphones sind die Massenkameras und große Kameras werden bald (leider) eine Mininische...

Sind sie doch schon längst...und trotzdem ist nix schlimmes passiert.
Eher ist es doch so das man als Kunde der eine ILC will durchaus vom steigenden Niveau und den bei den Smartphones z.T. schon länger etablierten Standard profitiert.

Ich sehe da echt keinen besonderen Grund zur Schwarzmalerei und glaube auch absolut nicht das eine "Bruteforce" Methode dort Abhilfe schaffen könnte!

Das "Problem" ist das es im Gegensatz zu den All-In-One Taschen PCs separate und dedizierte Geräte für einen ziemlich spezifischen Zweck sind...das "Problem" ist nicht das was sie können oder nicht können!
Diese "Spezialisierung" ist aber gleichzeitig auch ihre große Stärke und der Grund warum es auf absehbare Zeit immer noch genug Potenzial im ILC Markt gibt und geben wird.
 
Zuletzt bearbeitet:
N
Das ist genauso Unfug

Ich halte vieles, was hier gesagt wird für Unfug. Liegt in der Natur der Sache

Weil die Physik ab einem gewissen Punkt einfach immer die Möglichkeiten technischer Systeme limitiert! Alles andere ist Science Fiction.

ne, ist es nicht bzw. muss genauer betrachtet werden. Ich hatte oben das menschliche Auge/Wahrnehmung und Fokusstacking als Beispiel angeführt. Klar, auf untersten Ebene ist Denken auch nichts anderes als ein physikalischer Prozess- aber genau hier liegt ja auch die Erklärung, warum eine Beschränkung durch geschickte Anwendung eines anderen Prinzipes verbessert werden kann.

Und letztendlich ist auch SW und deren Ausführung etwas physikalisches.

Aber kannst ja mal gerne den Astronomen erklären wie blöd sie doch sind das sie immer größere Teleskope wollen...könne man ja auch einfach mit ausreichend cleverer "Software" erledigen! :rolleyes:

tja, genau das tun sie ja auch- Hubble hat gerade mal einen 2,6 Meter Spiegel und löst besser auf als ein vielfach größerer Spiegel auf der Erde.

Und man schliesst auch mehrere Teleskope zu einem Verbund zusammen, um eine höhere Informationsdichte zu erreichen als das mit einem einzigen Spiegel möglich wäre.
Und last not least: mit zwei kleinen Telekopen sind Dinge möglich, die ein einziges, egal wie groß, gar nicht machen könnte. Ähnlich übrigens wie bei den Augen: nur mit zwei Augen ist es möglich, dreidimensional zu sehen. Und mit weiter außenliegenden kann man den Blickwinkel vergrößern- beides Dinge, die ein einziges Auge niemals könnte- egal wie scharf sie sehen könnten.

Es kommt eben nicht nur auf die Quantität an (Informationsdichte), sondern auch auf die Art und wie man sie verwenden/einsetzen kann.

vg, Festan
 
tja, genau das tun sie ja auch- Hubble hat gerade mal einen 2,6 Meter Spiegel und löst besser auf als ein vielfach größerer Spiegel auf der Erde.

Dann hast du entweder nicht verstanden wieso es höher auflöst...oder willst einfach nur trollen! :ugly:

BTW der Hubble Nachfolger bekommt gleich nen 6,5m Spiegel! ;)
Wieso bloß?! Da hätte doch einfach nen "Hubble OS 2.0 mit nem Schicken neuen SoC" gereicht nach deiner Logik..was ja auch durchaus gemacht wurde, nur halt auch alles irgendwo seine Grenzen hat.

Und last not least: mit zwei kleinen Telekopen sind Dinge möglich, die ein einziges, egal wie groß, gar nicht machen könnte.

Und mit zwei großen ist dann gleich noch viel mehr möglich! :ugly:
Und mit viel mehr noch viel größeren, noch viel viel mehr.
Was ja auch regelmäßig alles so gemacht wird.

Was genau ist jetzt dein Punkt?

Es kommt eben nicht nur auf die Quantität an (Informationsdichte), sondern auch auf die Art und wie man sie verwenden/einsetzen kann.

Ja...und was passiert dann wenn man die Informationsdichte erhöht UND gleichzeitig die Verarbeitung verbessert!?
Ein entweder/oder führt hier doch irgendwie selten zu einem möglichst optimalen Ergebnis...und das ist ja wohl auch sicher nicht das Ziel.

Das ändert sowieso nichts daran das die Sensorik und Informationsdichte einer der großen Vorteile des ILC Konzepts ist.
 
Zuletzt bearbeitet:
Dann hast du nicht im Mindesten verstanden wieso es höher auflöst. :ugly:

eher Du nicht, um was es geht.

Genau das, was Du meinst, was ich nicht verstanden hätte, ist die funktionale Grundlage dessen, was ich argumentiere.

Man muss gar nicht die optischen Gesetze aushebeln, um die optische Leistung zu erhöhen. Man muss wie hier beispielhaft gezeigt die Optik nur an einen anderen Ort mit anderen Gegebenheit bringen.

Auch eine DSLR arbeitet mit einer Signalverstärkung- optisch wäre sonst bei wenig Licht nicht viel zu sehen- auch das "hebelt" die optischen Beschränkung ja bereits auf.

Und es ist auch für den Menschen nicht möglich, so scharf wie ein Adler zu sehen- aber mit Technik dann eben doch.

vg, Festan
 
Man muss wie hier beispielhaft gezeigt die Optik nur an einen anderen Ort mit anderen Gegebenheit bringen.

Nur macht eine Softwarelösung absolut nichts davon...sie versucht Gegebenheiten über Verfahren möglichst gut zu kompensieren oder neutralisieren indem die Auswertung angepasst wird... :rolleyes:

Das geht in Grenzen, ist aber eine Ergänzung und eine Optimierung bei der Auswertung von Datensätzen aber kann einfach Prinzipbedingt keine besseren Rohdaten mit höherer Informationsdichte kompensieren!
Und nochmal: Was passiert wenn ich vergleichbare Verfahren nur mit nochmals besserer Sensorik verbinde?!
 
Zuletzt bearbeitet:
Und mit zwei großen ist dann gleich noch viel mehr möglich! :ugly:
Und mit viel mehr noch viel größeren, noch viel viel mehr.
Was ja auch regelmäßig alles so gemacht wird.

ja, dort wo das machbar ist- ist es aber meistens nicht.

Und beim simulieren bzw. erzeugen der Unschärfe geht es ja auch gar nicht darum, besser zu werden, sondern um die gleiche Unschärfe(verläufe) zu erreichen.
Im einen Fall wird das durch die Optik alleine erreicht und beim Handy dann mit (einer kleineren) und Technik. Du argumentierst nur die ganze Zeit, man könne die optischen Gesetze nicht aushebeln- und ich sage, dass man das gar nicht muss um einen Effekt zu erzeugen, der scheinbar genau das tut und dadurch zu einem vergleichbaren Ergebnis kommt.

vg, Festan
 
Das geht in Grenzen ist aber eine Ergänzung und eine optimierung bei der Auswertung von Datensätzen aber kann einfach prinzipbedingt keine besseren Rohdaten kompensieren!

muss sie in diesem Fall ja auch nicht- ganz im Gegenteil. Unschärfe ist dadurch gegeben, dass ein Punkt in der Realität nicht mehr als Punkt, sondern als Scheibe erscheint. Wieso sollte man das nicht simulieren können (umgekehrt wirds schwierig).

Letztendlich bräuchte man für eine perfekte Simulation "nur" alle Entfernungsinformationen sowie Brennweite, Blende und Sensorgröße.

Oder einfach mehrere Bilder in unterschiedlicher Entfernung- umgekehrtes Fokus Stacking eben- da fällt mir ein, dass man mit etwas anderer Aufnahmetechnik beim Bokehrama auch genau so etwas erreicht.

Und mit Erstellung eines Panoramas erzeugt man auch eine wesentlich höhere Auflösung, als das die Optik/Sensor alleine könnte. Übrigens wohl auch schon als fertige Funktion in Handy verfügbar.

Die optische Begrenzung eines Objektives ist also mitnichten der begrenzende Faktor wenn man weitere Techniken zur Verfügung hat.

vg, Festan
 
@Festan

Bin ganz Deiner Meinung. Software, Algorithmen und Machine Learning werden extrem unterschätz. Und das obwohl es schon doch viele sehr gute Beispiele gibt, wo die Reise hingeht.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten