• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Weitere Canon EOS R Kameras

Die Datenrate ist ja mit 40 FPS und 21 MPix sehr hoch - bei ca. 30 MB je Bild (je nach ISO) sind das 1.2 GByte/sec. Das können Cfexpress Type B zwar theoretisch (max = 2 GByte/sec) aber in der Praxis wohl die meisten nicht.
Kann sein, dass mit der R1 dann auch mal wieder ein neuer Kartentyp eingeführt wird: Cfexpress Typ C, denn der kann max. 4 GByte/sec und ist - wenn ich das richtig sehe - noch gar nicht auf dem Markt.

Gruß,
Reinhard
 
@Mariosch:
Ich glaube, du lässt bei deinen Betrachtungen zwei wichtige Dinge außer acht:
1. Dual- und Quadpixel-AF beruht darauf, dass jedes der Subpixel in eine andere Richtung 'schielt'. Erst dadurch ergeben sich Unterschiede, die für einen Phasen-AF benutzt werden können. Würde man nun die vier Subpixel eines Quadpixel einzeln auslesen, so würden diese Helligkeitsunterschiede ausweisen und damit Strukturen erzeugen wo gar keine sind.
2. Damit der Phasen-AF funktionieren kann, müssen alle Subpixel denselben Farbfilter haben. Es funktioniert nicht, wenn du bspw. bei Quadpixel über die Subpixel 2 grüne, 1 roten und 1 blauen Filter legst. Das wiederum wäre aber nötig, damit du beim Demosaicing eine entsprechend hohe Auflösung im Ergebnis bekommst.
 
Die Datenrate ist ja mit 40 FPS und 21 MPix sehr hoch - bei ca. 30 MB je Bild (je nach ISO) sind das 1.2 GByte/sec. Das können Cfexpress Type B zwar theoretisch (max = 2 GByte/sec) aber in der Praxis wohl die meisten nicht. ...


Natürlich gibt es bereits auch schon Karten, die das können und dafür zertifiziert sind, da braucht es keinen neuen Standard.

Beispiele sind die ProGrade Cobalt Serie oder von Angelbird die AV PRO CFEXPRESS XT. Die garantieren durchgängig mindestens 1400 MB/sek beim Schreiben.


ProGrade_Chart_2-01-2021-01_1.jpg
 
Ist das so?
Ich dachte, es kommt nur auf die Laufzeit Unterschiede an. Wenn ein Subpixel nur in eine Richtung schielt, dann kann er ja auch nicht in alle Richtungen sehen.

Ja. Mit Laufzeit hat das mal rein gar nichts zu tun.

Hier ist übrigens recht gut beschrieben, was mit dem DualPixel RAW Format (meines Wissens bislang nur in EOS 5D Mark IV, EOS R und EOS R5) geht:
https://www.docma.info/blog/canons-dual-pixel-raw-format-wie-funktioniert-das
 
@wilsberg - danke für den link - der erklärt das wirklich gut.
@tompaba - damit hast du wohl recht, es geht gar nicht mal eben aus 21 MPix Quadpixel ein 84 MPix Bild zu machen. Die Quadpixel müssen die gleiche Farbe haben, sonst funktioniert der AF gar nicht.
Gemeint ist daher wohl: man kann Quadpixel-Raws aufnehmen - das Ergebnis nach Bearbeitung wird aber wieder ein 21 Mpix Bild sein.
... oder es sind doch 84 MPix Quadpixel :cool:

Gruß,
Reinhard
 
@tompaba: das war mir so tatsächlich nicht so klar.
Dann wird das wohl doch nicht so hinhauen mit dem 84 / 21 MP Bild, wie ich mir das blauäugig gedacht hatte.

Dass die Pixel in unterschiedliche Richtungen "schielen" betrifft zwar nur die unscharfen Bereiche, aber das könnte natürlich die Bildqualität trotzdem negativ beeinflussen. Die Farbfilter stellen allerdings ein Problem dar, solange Canon nicht plötzlich auf eine Art Foveon-Sensor setzt (eher unwahrscheinlich, denke ich).

Ich kann mir trotzdem nicht recht vorstellen, dass Canon plötzlich mit ihrer Prozessortechnik soweit sein soll, dass sie kontinuierlich über 300 Millionen Pixel für den AF auswerten können. Gegenüber der für mich schon beeindruckenden R5 wäre das ja fast eine Vervierfachung der Datenmenge und dementsprechend auch der zur Verarbeitung nötigen Rechenleistung...

Aber wer weiß, vielleicht haben sie ja auch Teile der Verarbeitung in Hardware ausgelagert und müßten so gar nicht mehr jeden Subpixel einzeln verarbeiten, weil die Phasendifferenz bereits als Wertepaar vom Sensor kommt oder sowas.

Lassen wir uns überraschen, und vielleicht ist an den Gerüchten ja auch gar nix dran.

~ Mariosch
 
@mariosch
Anamorphotische Linsen werden weiterhin eingesetzt. Cinemascope-Aspect auf 16:9-Sensoren (zum Erhalt der vert. Auflösung) und sofort erkennbar wegen dieser horizontalen Flares und eirigem Out-of-Focus-Blur. interessanter Link. Canon hat auch schon ein Doppelpaar Digics verbaut, einer für das Bild, der andere für die Verdauung AE/AF. Wie wir beide schon schrieben, alles nicht unmöglich. Und wenn wir uns ein Hersteller-Spionage-Spiel ausdenken, dann hat die S-Firma Infos erhalten, in welche Richtung es geht, eben jene A1 gebaut und C lediglich ein getürktes Paper hat stehlen lassen :D
 
@mariosch
Anamorphotische Linsen werden weiterhin eingesetzt. Cinemascope-Aspect auf 16:9-Sensoren (zum Erhalt der vert. Auflösung) und sofort erkennbar wegen dieser horizontalen Flares und eirigem Out-of-Focus-Blur.
Klar werden die weiterhin eingesetzt - habe ich auch nicht anders behauptet. Da geht es aber eben eher um die Flares, den Out-of-Focus Blur usw. Als die "Ästhetik des Aufnahmeverfahrens", die ich explizit ausgeklammert hatte.

Die erhöhte Auflösung, wegen denen solche Linsen wohl ursprünglich mal konzipiert wurden, der fällt aber in den meisten Fällen weg - jedenfalls dann, wenn du während der Post bzw Wiedergabekette das Desqueeze durchführst. Dann hast du am Ende eben zb ein UHD Bild in 1:2.35 mit schwarzen Balken oben und unten, und für den 4K Fernseher macht es fast keinen Unterschied, ob das Bild jetzt schon bei der Aufzeichnung, in der Post oder erst direkt vor der Anzeige auf dem LC Panel auf 1:2.35 gebracht wurde.

Bei Kinoproduktionen mag das noch anders aussehen, da kommen ja spezielle Projektoren zum Einsatz, ggf gibt es die auch mit passenden Projektionsobjektiven, so dass das Desqueeze erst hinter der digitalen Wiedergabe passiert und der Auflösungsgewinn erhalten bleibt.

Solange wir uns aber in einer digitalen Kette bewegen, bei der die Pixel des Ausgabegeräts quadratisch sind, erhöhe ich halt nicht die Auflösung, wenn ich beim Aufnahmegerät die Pixel recheckig mache und dafür in der Breite doppelt so viele Pixel unterbringe.

Und das war ja der Ausgangspunkt, wenn man die Dual Pixel auch einzeln abspeichern könnte, wieso Canon das nicht schon bei der 5D IV gemacht hat. Angesehen das tompaba schon eingeworfen hat, wieso das keine gute Idee ist - bei Dual Pixel käme halt noch hinzu, das der vermeintliche Auflösungsgewinn durch die nötige Entzerrung innerhalb der Digitalkette wieder verloren ginge.

Canon hat auch schon ein Doppelpaar Digics verbaut, einer für das Bild, der andere für die Verdauung AE/AF.
Stimmt, die 1DX III hatte sowas, oder?
Wobei ich mir da nicht sicher bin, ob sich das auf den LV AF oder den AF durch das dedizierte Fokusmodul im Spiegel-Modus bezog...

Völlig unmöglich ist das genannte sicher nicht. Nur hat Canon gerade einen recht ordentlichen Entwicklungssprung mit der R5 gemacht (wenn auch von einer etwas rückständigen Startposition aus) - und innerhalb von 12-18 Monaten quasi die Vervierfachung der Rechenleistung hinzubekommen wäre aber schon wieder ein gewaltiger Sprung. Aber wer weiß ob sie sich irgendwelche cleveren Tricks haben einfallen lassen, um QPAF bei 84MP zu realisieren, auch ohne mit den Daten von 336 Millionen Subpixel hantieren zu müssen.
Die Datenmengen sind ja auch nur so unglaublich, wenn man den ganzen Sensor immer abfragen muss. Wenn sie vielleicht zuerst die Gesichts- / Augenerkennung laufen lassen, dann können sie vielleicht gezielt nur die QP abfragen, die aktuell relevant sind, das reduziert die zu verarbeitende Datenmenge natürlich sehr.

Oder die R5 langweilt sich mit der Datenverarbeitung ihrer "lächerlichen" 45MP die ganze Zeit und es gibt noch genügend Reserven im Digic Prozessor :) (wobei ich dann eigentlich erwarten würde, dass die Kamera kühler läuft als sie es tut :D)

Schon ohne Quadpixel wäre so ein Sensor ein gewaltiger Schritt, finde ich - nicht die 84MP alleine, aber 84MP bei 20fps. Die "Pixelmonster" waren bisher ja eher gemächlich unterwegs, was die Serienbildrate anging...

~ Mariosch
 
Wie Mariosch bereits schreibt: Man muss sich mal vor Augen führen, welch exorbitanten Rechenleistungen die modernsten Kameras bereits heute vollführen - und das mit einem kleinen Akku (der auch noch möglichst lange halten soll).

Als jemand, der in der (großen) IT arbeitet, kann ich nur sagen: RESPEKT. (y)

.
 
Wie Mariosch bereits schreibt: Man muss sich mal vor Augen führen, welch exorbitanten Rechenleistungen die modernsten Kameras bereits heute vollführen - und das mit einem kleinen Akku (der auch noch möglichst lange halten soll).
Und dabei liegt die Rechenleistung eines DIGIC Prozessor immer noch deutlich unter dem eines Smartphones....
 
@c_joerg
das würde ich so nicht unterschreiben. Was legst Du denn als Vergleichsmerkmal fest?

Zum Datendurchsatz: Verbessert mich, wenn ich mich verrechnet habe. 21Mpix (Raw 14Bit) sind 35MByte pro Bild, also ~1.4GByte/s bei 40fps. Das ist erstmal nur der Roh-Durchsatz auf der Platine zum Digic (oder zu "den Digics", weil 2). Bei 84MPix sind es "nur" 20fps, also wäre der Durchsatz ~3GByte/s. Und da Digics nicht wirklich Universalprozessoren sind, sondern schon sehr Special-Interest, haben sie Eigenschaften eines DSP oder eines FPGA. Im Vergleich dazu schaufelt der DigicX bei uncropped-4K@60fps eben auch schon 20Mpix@14Bit@60fps ~> 2GByte/s durch. Inklusive Demosaicing, Rescaling, Color-Correction und HEVC-Encoding. Der Rohdurchsatz bei 5.5K-Raw enstpricht den selben Werten, nur fallen die Nachbearbeitungen weg.

Die einschränkenden Eigenschaften sind mM vor Allem Abwärme und Effizienz/Batteriearbeitszeit. Jetzt könnte man optimistischerweise sagen, durch den Wegfall des Spiegels, aber Beibehalt der Bodygröße gewinnt man Platz für den Energiehaushalt. Vulgo, der Digic darf jetzt mehr schuften.
 
Zuletzt bearbeitet:
Das sind Aussagen aus dem Magic Lantern oder CHDK Forum. Ich wollte mal einen Median über 24MP rechnen. Da hieß es, die DIGIC Prozessoren wären dafür nicht performant genug.
Smartphone kompensiere halt den kleinen Senor durch ihre enorme Rechenpower. Auch 8K ist da kein Problem. Bei mir in der Firma wird darüber nachgedacht, Signalprozessoren durch Chips aus Smartphone zu ersetzen.
Genaue Angaben über MIPS habe ich aber noch nicht gefunden.
 
ich hab gerade im Beitrag darüber noch ein paar Sätze angehangen. Dadurch, dass der Digic (meiner Einschätzung nach) einige fest verdrahtete Algorithmen hat, die sehr effizient sind, laufen andere Sachen deutlich "unterperformant", erst recht in einem Interpreter (LUA) oder auch in C geschrieben.
 
Na aber natürlich. Das macht solche Prozessoren aber nicht schlechter. Sie haben feste Einsatzbereiche. Wie die Bildprozessoren in TVs oder in AV-Receivern oder die Mainboard-Chipsets, die typischen DDR4-Speicher mit bis 25GB/s schaufeln können. Das machen sie 24/7 ohne besondere Aufmerksamkeit.

(Ich erinnere mich an S- und M-Raw, wo die Rescale/Demosaicing-Algorithmen bis zur 5D3 einfach nicht soo gut waren, ein Prozess von Bayer-Raw nach YUV. Man kann das Demosaicing im Body eben nicht frei auswählen - und es ging scheinbar auch nicht per Firmware. Ein Zeichen für feste Verdrahtung.)
 
Zuletzt bearbeitet:
@c_joerg
das würde ich so nicht unterschreiben. Was legst Du denn als Vergleichsmerkmal fest?

Ein Smartphone SoC dürfte tatsächlich um ein vielfaches schneller sein. Zumindest wenn man den gesamten Chip betrachtet.

In einem Snapdragon 888 schafft allein der die Pixel aus der/den Kamera(s) verarbeitet Bereich, 2700 Megapixel pro Sekunde. Und das ist im Vergleich zum ganzen Chip nur ein ziemlich kleiner Teil. Ein DIGIC müsste wohl schon damit verglichen werden, dann ist die Rechenleistung einer EOS durchaus mit einem Smartphone vergleichbar.

So oder so lässt sich das ganze schlecht Vergleichen, ein Echtzeitbetriebssystem wie DRYOS von Canon ist ganz anders als ein komplexes OS wie z.B. Android...
 
@Googlook
Was nicht ganz richtig ist. Wenn Du einen derzeit typischen Smartphone-IMX686-Sensor anschaust, hat der dahinter noch eine Processing-Engine und eigenen Speicher verbaut. Sprich, damit hat der Main-Prozessor nix zu tun. Dieser fordert "nur" die Bilder an (mit gewissen Eigenschaften natürlich). Sie sind aber vorverdaut. Und wenn ich jetzt mutmaße, dass das Videoencoding auch entweder vom Bildprozessor oder von der GPU übernommen wird - ist es jedenfalls nicht der Hauptprozessor. PDF Product Paper zum älteren IMX 318, ganz unten die Schematics.. Kurzum, so einfach stellt sich der Vergleich nicht dar.
 
Zuletzt bearbeitet:
Auch wenn 2x Digic X für den Datendurchsatz reicht, wird es wohl einen neuen Prozessor geben müssen, denn der DPAF wird in Hardware gegossen sein und ist für QPAF nicht zu gebrauchen - es sei denn, man hat das schon vorgesehen, denn so alt ist die CPU ja nicht.
Da es ohne 8k nicht mehr geht - siehe Sony A1 und Nikon-flagship Z? - muss auch die R1 MPix aufrüsten. Wenn Canon zudem ein brauchbares pixel binning erfunden hat, machen auch die 85 MPix Sinn - zumal damit auch 10k und mehr geht:cool:

Gruß,
Reinhard
 
WERBUNG
Zurück
Oben Unten