Deine Infos beziehen sich auf Tmsc, keine Ahnung was Sony da produzieren lässt.
Aber alle Sensoren, wie schon geschrieben verlinkt und zitiert, stellt Sony selbst her. Und Sie bauen eine neue FAB und sie sind Kunden von Asml das sind die einzigen welche EUV FAB's herstellen können.
Kucks Du gerne nochmal:
https://www.dslr-forum.de/showpost.php?p=15911913&postcount=660
EUV gibt es erst seit kurzer Zeit, seit 2018 sind nur ca. 2 Dutzend FAB's weltweit ausgeliefert worden.
Und in die Serienproduktion sind nur Teil davon.
Die aktuell von Sony verbauten Sensoren sind älter aber wie geschrieben macht das für die Zukunft nur Sinn. (Siehe Link oben)
TSMC ist Weltmarktführer und Technologieführer, was Chipproduktion angeht.
Von daher kann ich mir nicht vorstellen, dass Sony dort irgendwas Schlechteres fertigen lässt. Wahrscheinlicher für mich wäre das Gegenteil, mindestens jedoch Gleichstand.
Für die "popeligen" 800 Mio. €, die Sony da laut deinem älteren Artikel da investiert, bekommt man auch keine Fab nach aktuellster Fertigungstechnik.
Die aktuellen 40nm bzw. die zukünftigen 28nm erscheinen mir also plausibel.
Und mal ehrlich, für die reinen Bildsensoren ohne Schnickschnack reicht das auch völlig.
Die Pixeldichten sind gerade bei KB-Sensoren so niedrig, dass man hier noch mit steinzeitlicher Fertigungstechnik arbeiten könnte.
Die Verkleinerungen machen vor allem für die von dir angeführten On-Chip-Erweiterungen Sinn, die jedoch noch weitgehend Zukunftsmusik sind.
Falsch: Das ist nur die Sensortechnik auf dem Sensor selbst wie auch z. B. andere Phasendetektoren aber nicht die Logik/Bildverarbeitung/Intelligenz für Tier/Gesicht/Augenfokus usw.
Das findet heute noch per SW auf einer CPU extern statt.
Es mag nur Sensortechnik sein, jedoch ist sie die Zukunftstechnik, was den Sensor-AF angeht. Einfach nur irgendwelche AF-Sensoren in den Bildensor zu mappen ist veraltet.
Der Dualpixel-AF kann jeden einzelnen Bildsensorpixel als AF-Sensor nutzen. Einzige Limitation dabei ist die Rechenleistung, um das alles auswerten zu können.
Zusätzliche On-Chip-Rechenleistung könnte hier sicher auch nochmal weiterhelfen.
Und der Dualpixel-AF ist auch noch nicht das Ende der Entwicklung, es gibt bereits Patente für einen Quadpixel-AF.
Dadurch verdoppelt sich die reale Pixelzahl nochmals auf dem Sensor, insgesamt haben wir also eine Vervierfachung. Also noch mehr Daten zum Auswerten.
Die AF-Fähigkeiten dieses Dualpixel- bzw. Quadpixel-AF skalieren daher 1 zu 1 mit mehr Rechenleistung.
Die stupide "aufgeklebten" AF-Punkte sind dagegen schon ziemlich ausentwickelt.
Ich bin schon gespannt, wann Sony diese Technik ebenfalls für seine Kameras einsetzt. Noch wollen sie sich anscheinend Lizenzkosten sparen.
Offiziell vielleicht, aber in der Realität eher nicht.
Sony hat ganz offiziell den LowLight Sensor der A7 exclusive für Sony gesperrt den einzigen außerhalb der Sony Welt ist die ISS von der man schon sehr viele schöne Aufnahmen der Erde sehen konnte.
Oder der schnellste Sensor aus der A9 und der hochauflösenste aus A7R4 aus dem FF DSLM Bereich wurde bisher auch nicht an Fremdhersteller verkauft. Kommt vielleicht noch in den neuen Zx von Nikon aber halt mit einem deutlichen Zeitraum dazwischen.
Oder das aktuellstes Beispiel: der EVF der R5 kommt ja auch von Sony!
Der R5 hätte der deutlich bessere aus der As7iii sicher auch gut gestanden.
Die Trennung der Kamerasparte war vermutlich vor allem auch ein Zugeständnis an die Kunden wie Nikon.
Zu beachten gilt aber, wenn die Sony Kamerasparte was in Auftrag gibt an die Sensorsparte so gehört die Entwicklung allein der Kamerasparte somit hat ein Fremdhersteller nicht so einfach die Möglichkeit zu sagen: "ich will den Sensor der A9..." oder so.
Entweder sie bringen eine Eigenentwicklung mit rein die seit der Trennung rechtlich theoretisch streng getrennt behandelt werden muss oder sie bedienen sich aus dem Katalog der Sensorsparte.
Wie heisst es so schön "Blut ist dicker wie Wasser!"
Ich denke nicht, dass Sony sich so etwas leisten würde. Das wäre kartellrechtlich äußerst kritisch. Sony hat, was Bildsensoren angeht, eine marktbeherrschende Stellung. Wenn da rauskommt, dass sie diese Stellung ausnutzen, dann würden sie ganz schnell zerschlagen werden. Das würden sie niemals riskieren.
Dass der Sensor der A7S noch nirgendwo anders verbaut wurde, hat denke ich andere Gründe. Hätte Nikon, Canon oder sonstwer so eine Kamera konstruieren wollen, dann hätten sie zumindest "irgendeinen" Sensor aus dieser Klasse bekommen können. Die anderen Hersteller sehen anscheinend kein Marktpotenzial für so eine Nischenkamera.
Davon abgesehen halte ich den Sensor auch für wenig sinnvoll. Ein Foto aus einem Sensor mit hoher Auflösung kann immer noch runterskaliert werden und ist dann genauso rauscharm wie der kleine Sensor. Wenn ich bei DXOmark den Sensor der A7S II mit dem der A7R II vergleiche, dann ist die A7R II runterskaliert sogar minimal rauschärmer als die A7S II.
Zur A9: Diese hohe Sensorgeschwindigkeit macht nur bei DSLM Sinn und da haben bisher weder Canon, noch Nikon eine Sportkamera rausgebracht.
Deren Stand der Dinge ist dort noch die 1D X III bzw. D6 und bei DSLR ist das im Sucherbetrieb nicht relevant.
Ich kann mir gut vorstellen, dass Nikon mit einer eventuellen Z1 den Sensor aus der A9 nutzt.