• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Der System und Sensorvergleich: mFT versus KB > X versus Y

Man muss sich mal überlegen, was moderne Kameras schon leisten- da werden locker 8 Bilder pro Sekunde geschossen, entwickelt (entrauscht, geschärft) in JPG und wenn man dann noch paar Einstellungen oder Schwarz Weiss eingestellt hat, dann hauen die sogar das Wunsch-Preset noch drauf.
Außerdem verrechnen die Kameras ein HDR oder ein Panorama doch teilweise viel schneller, als ein Programm am PC es tut. Klar, das Ergebnis kann besser sein... aber auch hier wieder die Frage, wann ist gut letztendlich gut genug für das meiste.

Wenn der Prozessor darin extrem speziell auf die Aufgaben hin entwickelt wird, dann muss der gar nicht so viele MHZ haben, wie der Desktop Prozessor, der alles können muss.
Auch gut möglich, das für derlei Aufgaben bald noch weitere Prozessoren auf die Platine gelötet werden.
Das ist doch dasselbe, wie bei Notebooks. Natürlich kann der Heimische PC der selben Entwicklungsstufe immer mehr Leistung haben, Kunststück, der wird aber auch ganz anders gekühlt und hat eine größere Verlustleistung. Aber wie viele Leute haben gar keinen PC mehr und machen alles was sie brauchen nur noch mit einem Laptop oder einem Ipad? Selbst wenn man gerne PC Spiele macht- läuft das neue Game eben nicht in 4k, aber auf dem 17 Zöller reicht auch weniger Auflösung beim Gaming.
 
Zuletzt bearbeitet:
Wenn ich überlege, dass ich heute mehr REchnepower auf meinem Smartphone habe als der gesamte Kontrollraum in Houston bei Apollo 13, dann ist das eigentlich nur eine Frage der Zeit bis sowas geht.

Du bist zu Technikgläubig.

Moores Law funktioniert schon seit einigen Jahren nicht mehr welches mal besagt hat dass sich die Packungsdichte von Transistoren auf einem Chip alle zwei Jahre verdoppelt.
Wir sind schon lange an dem Punkt wo sich Packungsdichten nichtmehr beliebig steigern lassen und auch die Taktraten der Prozessoren nicht.
Wir sehen deshalb auch Geschwindigkeitsverbesserungen in Prozessoren nur noch in sehr überschaubaren Dosen. Vieles geht nur noch über die Vervielfachung der Prozessorkerne unsw.

Wir nähern uns da, genau wie bei den Sensoren der Kameras langsam dem technisch machbaren.

Wenn man sich die Geschwindigkeitssteigerungen der Smartphones die letzten Jahre anschaut dann waren das bei den Snapdragons und Kirins unsw. wenige Prozent pro Generation.
 
Außerdem verrechnen die Kameras ein HDR oder ein Panorama doch teilweise viel schneller, als ein Programm am PC es tut.

Welche Kamera gibt denn verrechnete HDR oder Panos in DNG aus?
Und warum sollte man wollen dass das die Kamera macht?

Gerade bei der Verrechnung von HDR will ich doch dass da am Ende eine 16 Bit File raus kommt dass ich die hohe Dichte an Informationen darin auch weiter verarbeiten kann. Und ich will vor dem verrechnen die Ghostingerkennung prüfen unsw.

Das selbe bei Panos. Da will ich vor der Verrechnung an den schwierigen Stellen zusätzliche Ankerpunkte setzten unsw.

Was nutzt mir das wenn ich eine geile Kamera mit Top 24 oder 42MP Sensor nutze wenn das automatisch verrechnete HDR oder Pano technisch einfach nicht gut ist?

Wenn ich mit der Qualität von 80% Panos und HDR zufrieden bin, kann ich das SF nehmen............. Wobei sich da der Kreis wieder schliesst.

Ich WILL gar nicht das sowas die Kamera macht................
 
Das ist ja genau der Punkt- NOCH sind die Ergebnisse nicht prickelnd. Das muss aber nicht so bleiben. Vor 3 Generationen gab es auch noch keinen so schnellen Augenautofokus wie heute. Damals hieß es auch noch, brauch ich nicht, zu schlecht usw.

Warte mal ab, bis die nächsten 3 Generationen an Chips und Prozessoren in den Kameras erschienen sind. Wenn die Kameraentwickler sich nicht zu schade sind, da was anständiges zu entwickeln (und genau um das geht es ja- für den Massen Markt einfach schöne Ergebnisse bringen) dann geht da noch einiges.

Du und ich müssen davon nicht angesprochen werden, sondern die ganzen Nachwuchsfotografen. Wenn der Markt nicht unnötigerweise kleiner wird, als er müsste mit ein paar Innovationen, dann haben wir alle was davon.

Die ganze Handywerbung zielt doch inzwischen auf die Kamerafunktionen ab. Es wäre doch mal was, wenn eine Kamerawerbung im TV kommt, wo du auf dem Display sofort coole Dinge tun könntest und gezeigt wird, wie du das einfach teilen kannst. Der Grundstein dafür ist ja bereits gelegt, durch die ganzen Apps. Bloß kennt das außer den Leuten in Fotoforen fast keiner fürchte ich.

Olympus ist dabei das beste Beispiel- deren Softwarespielchen in der Art Lichtmalerei usw. gehen ja in die Richtung. Mehr coole Gimmicks gleich in der Kamera zu erstellen. Bloß waren die bisher nicht von Erfolg gekrönt, zumindest wirtschaftlich, wie man sieht. Das müsste mal jemand richtig machen, weiter verbessern und bewerben.
 
Das hat mit der Grafikkarte null komma garnix zu tun.

Das Bild wird gerechnet, nicht angezeigt. Und KI läuft im Prozessor ab. M1 könnte Vorteile haben wenn die KI Engines angesprochen werden... was vermutlich bislang noch nicht der Fall ist.

Von vorne bis hinten falsch. Natürlich läuft das ganze mit Hardwarebeschleunigung auf der Grafikkarte. Du kannst auch auf der Grafikkarte berechnen ohne etwas anzuzeigen, stell dir das vor. Wie denkst du werden und wurden cryptowährungen auf GPUs gemined?
Und grade für "KI" kannst du deinen Prozessor quasi vergessen. Nvidia hat dafür zb Tensor cores in der GPU die massive Unterschiede machen. Ausser im Consumerbereich gibt es da glaub niemand der CPU Rechenleistung verwendet. Da DXO aber wahrscheinlich auch Leute mit ihrem Athlon 64 X2 als Kunden ansprechen wollen wird es ein fallback auf CPU geben und die Optimierungen wahrscheinlich eher auf Kompatiblität anstatt pure Performance getrimmt. Trotzdem wird natürlich die GPU verwendet wenn möglich.


Wir nähern uns da, genau wie bei den Sensoren der Kameras langsam dem technisch machbaren.

Wenn man sich die Geschwindigkeitssteigerungen der Smartphones die letzten Jahre anschaut dann waren das bei den Snapdragons und Kirins unsw. wenige Prozent pro Generation.

Du vergisst hierbei aber das Smartphones den Kameras gleich mehrere nodes vorraus sind. Da sind Kameras noch entfernt vom technisch machbaren. Das Problem ist nur das finanziell machbare.
 
Zuletzt bearbeitet:
Du bist zu Technikgläubig.

Interessantes Statement - gerade von Dir!

Moores Law funktioniert schon seit einigen Jahren nicht mehr welches mal besagt hat dass sich die Packungsdichte von Transistoren auf einem Chip alle zwei Jahre verdoppelt.
Wir sind schon lange an dem Punkt wo sich Packungsdichten nichtmehr beliebig steigern lassen und auch die Taktraten der Prozessoren nicht.
Wir sehen deshalb auch Geschwindigkeitsverbesserungen in Prozessoren nur noch in sehr überschaubaren Dosen. Vieles geht nur noch über die Vervielfachung der Prozessorkerne unsw.

Wir nähern uns da, genau wie bei den Sensoren der Kameras langsam dem technisch machbaren.

Wenn man sich die Geschwindigkeitssteigerungen der Smartphones die letzten Jahre anschaut dann waren das bei den Snapdragons und Kirins unsw. wenige Prozent pro Generation.

Mit Vehemenz und überzeugend vorgetragen - wenn man bedenkt, dass dieses Statement absoluter Ahnungslosigkeit entspringt!

Dass Moore's law nicht mehr gelten soll ist Quatsch, siehe hier: https://www.nextplatform.com/2019/09/13/tsmc-thinks-it-can-uphold-moores-law-for-decades/
oder hier:https://www.pcgamer.com/tsmc-is-raiding-the-periodic-table-to-keep-moores-law-alive/
oder, wenn Du es lieber auf Deutsch hast, hier: https://www.heise.de/newsticker/meldung/TSMC-Moore-s-Law-lebt-4501547.html
Nur, dass Intel derzeit ein Problem hat, auf neue Dimensionen zu gehen, heißt nicht, dass der Rest der Welt auch schläft!

Das Gegenteil ist der Fall: Ich arbeite für den größten Hersteller von Chipgehäusen weltweit, und inzwischen wird die 3. Dimension bei Gehäusen mit Macht genutzt, d.h. die Packungsdichte wächst an 2 Fronten. Die Konzeption von neuen Prozessorarchitekturen in fertige Produkte ist mein täglich Brot. Und so schnell wie derzeit hat sich die Industrie in den über 30 Jahren, in denen ich nun Halbleiterei mache, nur selten bewegt.
Wir sind heute in der Lage eine komplette Serverarchitektur , die bislang auf einem DIN A5 großen Board aufgelötet war, in einer Gehäusegröße unterzubringen, in der vor 1 1/2 Jahren noch ein Prozessor war.

Der neue M1 Prozessor von Apple steckt die gesamte Industrie komplett in die Tasche, und der ist bereits auf dem Markt. Und da reden wir nicht nur über wenige Prozent!

Wir sind noch sehr lange nicht am Rande des technisch Machbaren!
 
Von vorne bis hinten falsch. Natürlich läuft das ganze mit Hardwarebeschleunigung auf der Grafikkarte. Du kannst auch auf der Grafikkarte berechnen ohne etwas anzuzeigen, stell dir das vor. Wie denkst du werden und wurden cryptowährungen auf GPUs gemined?
Und grade für "KI" kannst du deinen Prozessor quasi vergessen. Nvidia hat dafür zb Tensor cores in der GPU die massive Unterschiede machen. Ausser im Consumerbereich gibt es da glaub niemand der CPU Rechenleistung verwendet. Da DXO aber wahrscheinlich auch Leute mit ihrem Athlon 64 X2 als Kunden ansprechen wollen wird es ein fallback auf CPU geben und die Optimierungen wahrscheinlich eher auf Kompatiblität anstatt pure Performance getrimmt. Trotzdem wird natürlich die GPU verwendet wenn möglich.

Ich gebe zu, dass das nur auf oberflächlichen Überlegungen beruhte. Und auf der Tatsache, dass meine KI-Einheiten den Grafikchip nicht wirklich benutzen.

Aber von SW-Architektur verstehe ich nicht wirklich etwas...
 
Wir nähern uns da, genau wie bei den Sensoren der Kameras langsam dem technisch machbaren.

Das ht man schon zu ALLEN Zeiten gedacht und immer wieder hat es sich als falsch heraus gestellt.
Und genauso wird deine Aussage sich als falsch heraus stellen.
Man ist noch lange nicht am ende des Technisch machbaren:)
 
... Man stabilisiert nicht die Verkäufe von Plattenspielern gegen das Streaming in dem man sie Streamingfähig macht....................

Das ist doch mal eine geile Idee ... die Platte ist fest montiert, muss nicht mehr gewechselt werden und zeigt mit ihrer Drehgeschwindigkeit den Streamingfortschritt an, während der Unterbau völlig knisterfrei, auch ohne Nassabspielung, die Lieder aus dem WWW saugt. :lol:

Der nächste Evolutionsschritt in der Photographie ist dann das SF, das durch Optik und Sensor erkennt welches Photo der Mensch, der es in Händen hält, gerade machen möchte, über Datum, Uhrzeit und Wetterinformation sowie "umgekehrter Bildsuche" aus WWW Datenbanken ein passendes und perfektes Bild herunterlädt, dem Mensch noch ein paar KI Varianten zum Anklicken vorschlägt und mittels einfachem Berühren eines virtuellen Knopfes ist ein perfektes Bild gemacht, mit dem man selbstverständlich auch potzblitz in den sozialen Medien glänzen kann ... nun spielen Optik und Sensorgröße sowie das Können definitiv keine Rolle mehr und jeder Vollhorst kann perfekte Werke abliefern ... keine Rechte vorbehalten :devilish: ab heute immer schön die AGB der Plattformen durchlesen, bevor man ihnen zustimmt ...
 
Zuletzt bearbeitet:
... Die ganze Handywerbung zielt doch inzwischen auf die Kamerafunktionen ab. Es wäre doch mal was, wenn eine Kamerawerbung im TV kommt, wo du auf dem Display sofort coole Dinge tun könntest und gezeigt wird, wie du das einfach teilen kannst ...

„Wenn Du ein Schiff bauen willst, dann trommele nicht Männer zusammen um Holz zu beschaffen, Aufgaben zu vergeben und die Arbeit einzuteilen, sondern lehre die Männer die Sehnsucht nach dem weiten, endlosen Meer.“ (Antoine de Saint-Exupéry)

Übertragen auf die Photographie, wenn die nachwachsende Generation noch Fotoapparate kaufen soll, dann muss sie eine Sehnsucht danach haben, mit einer klassischen Methode zu Photographieren.

Die entwickeln sie aber nicht, wenn man ihnen nur Geräte zeigt, die das gleiche können wie ihr SF, außer Telefonieren. Die muss man zusätzlich herumschleppen und laden und sie kosten zusätzliches Geld.

Meine Kinder (11 und 15) machen Photos zum Ausschneiden für ein Notizbuch und zum Hochladen auf Instagram ... also für Formate etwas größer als eine Briefmarke ... Schärfentiefe ist denen egal, obwohl sie meine Bilder, wie ich sie gestalte und den Weg dahin kennen ... ich arbeite auch stetig und vorsichtig daran, sie für das Thema zu begeistern, aber es ist und bleibt unklar, ob die beiden jemals eine Kamera kaufen werden ...


Meine ganz persönliche und vollkommen Statistik freie Prognose für in 10+ Jahren

- SF mit mehreren Linsen und KI werden den Markt absolut dominieren, für Foto und Video
- Kompakte Zoomkameras mit Sensoren < 1 Zoll werden verschwinden
- 1 Zoll Sensoren schaffen es ins Video- und Vlogger-Segment oder verschwinden ebenfalls
- MfT wird das Nischendasein wirtschaftlich nicht überleben
- APSC und KB werden über den Einsatz von "Curved Sensors" zeigen, in wie weit sie kompakter und/oder günstiger werden können und eine Sensorgröße wird für Berufsfotografen und die Freunde der klassischen Fotografie übrig bleiben, ich vermute KB.
- Künftige Kameras (ohne SF) werden eher für Videos verwendet und für die so beliebte Selbstdarstellung im WWW
- Es werden nicht alle Kameranbieter/-marken/-hersteller übrig bleiben ...

PS: Ich würde mich gerne irren!
 
Zuletzt bearbeitet:
Der nächste Evolutionsschritt in der Photographie ist dann das SF, das durch Optik und Sensor erkennt welches Photo der Mensch, der es in Händen hält, gerade machen möchte, über Datum, Uhrzeit und Wetterinformation sowie "umgekehrter Bildsuche" aus WWW Datenbanken ein passendes und perfektes Bild herunterlädt, dem Mensch noch ein paar KI Varianten zum Anklicken vorschlägt und mittels einfachem Berühren eines virtuellen Knopfes ist ein perfektes Bild gemacht, mit dem man selbstverständlich auch potzblitz in den sozialen Medien glänzen kann ... nun spielen Optik und Sensorgröße sowie das Können definitiv keine Rolle mehr und jeder Vollhorst kann perfekte Werke abliefern ... keine Rechte vorbehalten :devilish: ab heute immer schön die AGB der Plattformen durchlesen, bevor man ihnen zustimmt ...
Ja. Der Weg dorthin wird gegenwärtig gegangen, auch wenn das Ziel noch nicht erreicht ist.

Einige Zwischenschritte seien hier genannt.
  • Einige Zeit wurde mit der Entwicklung von Belichtungsautomatiken verbracht, die ein Motiv erkennen und richtig belichten. Ein Zwischenschritt dahin waren die Motivprogramme, für deren Wahl der Anwender zuständig war. Mit einer Motiverkennung kann man den Störfaktor Anwender eliminieren.
  • Nach MF folgte S-AF folgte C-AF. Mittlerweile wird via Motiverkennung versucht, den richtigen Schärfepunkt automatisch auszuwählen. Der Weg ist beschritten, die Lösungen sind noch unterschiedlich gut, der Anwender lechzt nach mehr - spielende Hunde und krabbelnde Kleinkinder. Es ist eine Frage der Zeit, bis das kommt.
  • Fotokunst aus der Kamera, Olympus hat das mit der Pen F (Art-Filter auf Drehknopf) vorgemacht, HDR-App und Bokeh-App und SW-App gehen in dieselbe Richtung. Das Ziel ist noch offen, der Weg wird gegenwärtig gelaufen.
  • Und dann den ganzen Mist auf FB, Insta, WhatsApp verteilen und Beifall einfordern. Wir sind erfolgreich dabei, die Kamerahersteller scheuen sich allerdings, ein Handy in ihre Gehäuse einzubauen. Warum eigentlich?.
  • Auch ja: Die größe Erfindung der letzten 10 Jahre war die zweite Kamera im Handy und das um 180 Grad geklappte Display für das Selfie.

Es sind alles Funktionen für den "Vollhorst", der dafür seine Euros lassen soll. Wenn man 99% der Kunden so erreicht, stimmen die Umsätze und wohl auch der Gewinn.
 
Dass Moore's law nicht mehr gelten soll ist Quatsch,

Das Ursprüngliche Moores Law das über die Packungsdichte von Transistoren argumentiert hat, ist tot. Töter als tot.

Kann man schön daran erkennen dass sich die Leistung aktueller Prozessoren nicht alle 2 Jahre verdoppelt wie es Moores Law besagt hat, sondern dass die Prozessoren (wenn man einen einzelnen Kern betrachtet) vielleicht noch 5 oder 10 Prozent schneller geworden sind in 2 Jahren.

Da hilft auch das Marketinggeblubber von TSMC nix.

Dass der M1 Chip soviel besser ist, stimmt natürlich auch nicht. Er muss sich in einigen Bereichen sogar der Konkurrzenz von AMD und Co geschlagen geben:

Zitat:

Apps und Spiele mit Multithreading laufen auf AMD-CPUs schneller ab als beim Apple M1
Falls jedoch die Anwendung oder das Spiel mit mehreren Rechenkernen umgehen kann, dann ist die Multicore-Wertung wichtiger. Inzwischen können die meisten Programme mit Multithreading umgehen. Im Cinebench R23 Multicore tut sich der Apple M1 schwer gegen die aktuelle CPU-Generation von AMD. Alle Ryzen-CPUs ab dem Ryzen 5 4600U erreichen eine Punktzahl von mindestens 8.008 Punkten, während der Apple M1 nur auf 7.508 Punkte bei Auslastung mehrerer Prozessorkerne kommt.

Quelle:

https://www.pcgameshardware.de/Appl...enchmark-vs-AMD-Ryzen-und-Intel-Core-1362013/
 
Zuletzt bearbeitet:
Es sind alles Funktionen für den "Vollhorst", der dafür seine Euros lassen soll. Wenn man 99% der Kunden so erreicht, stimmen die Umsätze und wohl auch der Gewinn.

Genau meine Rede.
Man bringt den "Vollhorst" wie Du es nennst nicht dazu eine Kamera statt ein SF zu nutzen nur wenn man die selben Features in eine Kamera einbaut.

Und die nicht Vollhorsts die die Kamera als Werkzeug für ihr Hobby begreifen, brauchen die SF Features nicht in der Kamera.
 
Genau meine Rede.
Man bringt den "Vollhorst" wie Du es nennst nicht dazu eine Kamera statt ein SF zu nutzen nur wenn man die selben Features in eine Kamera einbaut.

Und die nicht Vollhorsts die die Kamera als Werkzeug für ihr Hobby begreifen, brauchen die SF Features nicht in der Kamera.


Das gilt noch 10 bis 15 Jahre, für die "Vollhorsts" von heute ... dann kommt eine Generation die Kameras nur noch von ihren Eltern kennt, wenn überhaupt.
 
. . .
Und die nicht Vollhorsts, die die Kamera als Werkzeug für ihr Hobby begreifen, brauchen die SF Features nicht in der Kamera.
Wenn ich in diesem Forum die Threads durchlese, bin ich von deiner Einschätzung nicht überzeugt. Hier wird immer wieder darüber geweint, dass ein EierPhone etwas kann, was der Kamera versagt bleibt.
 
a)Ist die aktuelle M1-Generation sehr stark auf Energieeffizienz ausgelegt, da stehen dann ~30 Watt (Mac Mini bei Volllast) der mehr als 10fachen Energieaufnahme beim PC gegenüber. Da kannst du dir ungefahr vorstellen, was ein Mac leisten kann, der das hochskaliert - denn der M1 war nur der Anfang, die neue Technologie wird auch im normalen PC-Bereich Einzug erhalten

b)zeigt es sehr schön, was Optimierung von Programmen bewirken kann und was man mit speziell aufeinander abgestimmten Cameraprogrammen/Prozessoren erreichen könnte.

c) Ist doch deine einzige Angst, das die Resultate (Panorama etc.) nicht genug sind, weil Ankerpunkte fehlen usw. Kleiner Tipp... du setzt vieleicht 10 Ankerpunkte und gibst dir viel Mühe...eine KI kann tausende setzen und die dabei gewonnenen Infos gleich noch nutzen, um die Bilder optimal zu entzerren, Helligkeiten anzugleichen usw.

Genau wie heute jedem Nutzer einer Dunkelkammer klar sein wird, das er/sie digital am PC eine bessere Bildqualität erreichen würde, es aber einfach Spass macht, wird es in sehr kurzer Zeit so sein, dass das auch für den Typen gilt, der manuell Ankerpunkte am PC setzt.

Ich habe eine 2013er Macbook Pro, das ich quasi nur noch zum Hochladen und Verschlagworten meiner Raws verwende, die Bearbeitung erfolgt auf einem Ipad Pro, weil es deutlich schneller, komfortabler und protabler ist. Fuji hat jetzt ein Programm raus gebraucht, mit dem ich am PC/Mac quasi die Kamera als Bildbearbeitungsrechner nutzen kann, d.h. Steuerung erfolgt am Computer, Berechnung etc. laufen auf der Kamera... die Kamera ist deutlichst! schneller als das Macbook, wenn ich dort die Bilder bearbeite

Wer meint KI diene nur der Bildverfälschung, der irrt gewaltig - es geht schon vor der Aufnahme los, die Kamera erkennt was der Nutzer eigentlich fotogtrafieren möchte (Wird bei der Gesichtserkennung gefeiert, jetzt neu Tieraugenerkennung, der nächste hätte gerne eine automatische Verfolgung des roten Cabrios im Bild, der nächste möchte das Segelboot mit dem Totenkopf verfolgen usw. usw.) Wer Familie hat, würde sicherlich gerne und bevorzugt seine Familie fotografieren und nicht Mister X danaben, wenn die Kamera die Familienmitglieder automatisch erkennt und dann auch noch gleich die Bilder entsprechend verschlagwortet.... Das ist mit klassischen Algorithmen nicht machbar, hier braucht es KI - es geht weiter mit dem Weißabgleich, auch der ist weit besser optimal (und ggf. in verschiedenen Bildbereichen auch unterschiedlich) zu setzen, wenn das Motiv bekannt ist. Spezialanwendungen wie Panoramen etc. sind genau so ein Thema, wenn die Kamera es schafft diese Bilder gleich optimal zu einem großen Raw etc. zusammen zu rechnen und dank KI & hinterlegter Objektivprofile keine Stitching-Fehler vorkommen -wer willl sich damit dann in der EBV belasten?

Die Möglichkeit per KI dann ein künstliches Bokeh zu berechnen, ist dann nur noch eine Spezialanwendung, die man dann halt nutzt, wenn man mal nur das lichtschwache Kit-Objektiv dabei hat oder aber bei einer Hintergrundunschärfe von f/1.0 die Schärfentiefe von f/5.6 haben möchte. Auch wenn die Bildverfälschungs-Gegenr jetzt aufschreien werden und lieber eines von 2 Augen in matschiger Unschärfe haben, ist ja keine Bildverfälschung und sieht auch real so aus...nee warte...
 
Zuletzt bearbeitet:
Das Ursprüngliche Moores Law das über die Packungsdichte von Transistoren argumentiert hat, ist tot. Töter als tot.

Kann man schön daran erkennen dass sich die Leistung aktueller Prozessoren nicht alle 2 Jahre verdoppelt wie es Moores Law besagt hat, sondern dass die Prozessoren (wenn man einen einzelnen Kern betrachtet) vielleicht noch 5 oder 10 Prozent schneller geworden sind in 2 Jahren.

Da hilft auch das Marketinggeblubber von TSMC nix.

Nein - Falsch - Unsinn!!!

Wie Du - richtig - bemerkt hast, hat Gordon Moore das über die Packungsdichte definiert, nicht über die Performance.
Und das hat nichts mit "Marketinggeblubber" zu tun. TSMC ist voll auf der Roadmap. Letztes Jahr waren sie bei 7nm - Im Augenblick gehen 5nm auf breiter Front in Produktion (siehe M1), und 3nm ist im Teststadium.

Bei einer Verdopplung der Packungsdichte wird erstmal der Chip kleiner, nicht die Performance besser, das sollte auch Dir einleuchten. Was aber vor allem besser wird, ist der Quotient aus Stromaufnahme und Performance. Und dass die Performance auch besser wird, merkst Du daran, dass AMD an Intel vorbei gezogen ist - die lassen nämlich bei TSMC fertigen.

Eine falsche und unbewiesene Behauptung wird nicht deshalb wahr, weil man sie - unbewiesen - wiederholt. Ich erspare mir jetzt den Blick über den großen Teich...

Dass der M1 Chip soviel besser ist, stimmt natürlich auch nicht. Er muss sich in einigen Bereichen sogar der Konkurrzenz von AMD und Co geschlagen geben:

Zitat:

Apps und Spiele mit Multithreading laufen auf AMD-CPUs schneller ab als beim Apple M1
Falls jedoch die Anwendung oder das Spiel mit mehreren Rechenkernen umgehen kann, dann ist die Multicore-Wertung wichtiger. Inzwischen können die meisten Programme mit Multithreading umgehen. Im Cinebench R23 Multicore tut sich der Apple M1 schwer gegen die aktuelle CPU-Generation von AMD. Alle Ryzen-CPUs ab dem Ryzen 5 4600U erreichen eine Punktzahl von mindestens 8.008 Punkten, während der Apple M1 nur auf 7.508 Punkte bei Auslastung mehrerer Prozessorkerne kommt.

Quelle:

https://www.pcgameshardware.de/Appl...enchmark-vs-AMD-Ryzen-und-Intel-Core-1362013/

Wenn man einen einzelnen Benchmarktest heraus greift, kann man alles beweisen... Wichtig ist aber nicht die schiere Rechenleistung auf möglichst vielen Kernen sondern Performance über Leistungsaufnahme. Und da darf ich die Printausgabe der ct - vermutlich das seriöseste Computermagazin - zitieren:
"Es gibt einzelne Systeme - auch im Laptopbereich - die schneller sind, und es gibt noch sparsamere Rechner. Aber wenn es um Performance pro Watt geht, gibt es kein System, das auch nur in die Nähe der neuen MacBooks kommt!"

Und das ist der M1 - der M2 steht schon vor der Tür... in 3nm!
 
Hat hier nichts zu suchen!
Das andere Computer-Gequassel auch nicht! Und die Drölfzigste Smartphone-Diskussion erst recht nicht.

Seh ich auch so.
Nur jedes Argument für jede Sensorgröße in der Fotografie wurde schon mindestens einmal vorgebracht. Nur noch nicht von jedem :)
 
WERBUNG
Zurück
Oben Unten