Wenn ich ein Foto mit 36MP auf 100% am Monitor anschaue, dann schaue ich mir einen viel kleineren Ausschnitt einer Aufnahme an als bei einer 16MP-Kamera, und nur darauf kommt es an. Wenn ich dann sage, die 36MP-Kamera sieht bei 100% aber nicht so gut aus wie die 16MP-Kamera bei 100%, was sagt mir das?
Tut mir Leid, aber das ist wirklich falsch. Stelle Dir doch mal vor, Dein Monitor wäre kein 24 Zoller (oder was auch immer bei Dir auf dem Schreibtisch steht), sondern so ein Riesenmonitor, dass das ganze Foto bei 100% gezeigt wird. Das kann man theoretisch erreichen, in dem Du von Deinem Monitor mehrere nimmst und die übereinander und nebeneinander stellst und die werden mit den entsprechenden Bildausschnitten gefüttet.
Der "Riesenmonitor" hat natürlich viel mehr Pixel (nämlich genau 36 Millionen für den Fall der A7), aber die Dichte der Pixel ist genau so klein/groß wie bei Deinem Monitor.
Was ist da mit dem Foto? Das ist natürlich auf die genau die gleiche Weise vergößert auf dem Riesenmonitor wie auf Deinem Monitor. Aber der Riesenmonitor zeigt das komplette(!) Bild, Dein Monitor zeigt nur einen Ausschnitt. Dennoch ist die Vergrößerung identisch. Genau das bezweifelst Du aber, Du sagst ja, die relative Größe des Ausschnitts wäre entscheident. Das ist aber nicht der Fall.
Richtig ist: weder Monitorgröße, noch Sensorgröße, noch Anzahl Pixel im Monitor, noch Anzahl Pixel des Sensors sind relevant bei der Berechnung der effektiven Vergrößerung. Es spielt keine Rolle, wie groß nachher ein bestimmter Ausschnitt ist, das hängt von der Größe des Monitors ab.
Die Vergrößerung findet in der Auflösung statt, die wird landläufig mit "dpi" bezeichnet (Dots per Inch). Und nur diese Relation entscheidet darüber, wie stark ein Bild vergrößert wird. Nehmen wir erst Deinen Monitor, der ist (haben wir jetzt einfach festgelegt) 24 Zoll in der Diagonale, sagen wir, es ist ein 16:10 Monitor und nehmen wir an, er habe 1920x1200 Pixel. Mit ein wenig Geometrie und Pythargoras ermitteln wir hier, dass der Monitor eine Auflösung von ca. 94 dpi besitzt. Ist nicht sehr viel, aber das ist ein normaler Wert.
Jetzt nehmen wir den Sensor der A7r, der hat 36 Megapixel auf einem 24x36mm Sensor. Das ist ein wenig mehr Gerechne, aber kriegen wir auch heraus, dieser Sensor hat eine Pixeldichte von ca. 5185 dpi (wow!).
Wenn man jetzt das Bild oder einen Ausschnitt dieses Sensors auf dem Monitor darstellt, so dass jeweils ein Sensorpixel einem Monitorpixel entspricht, dann vergrößert sich das Bild in jeder Koordinate um Faktor 55 (nämlich die Relation der dpi Zahlen). Was auf dem Sensor 1mm breit ist, ist auf dem Monitor nun 5,5cm breit.
Und diese Umrechnung, dass 1mm auf dem Sensor nachher auf dem Monitor 5,5cm sind, das ist die effektive Vergrößerung und dieser Relation sieht man unmittelbar an, dass weder Sensorgröße noch Monitorgröße eine Rolle spielen! Diese Größen sind lediglich dafür verantwortlich, wie groß das Motiv und wie groß das Abbild insgesamt überhaupt werden kann, aber die Vergrößerung an sich, die für optische Unschärfe sorgt, die hängt nicht von der Sensorgröße und auch nicht von der Monitorgröße ab, sondern nur von der Dichte der jeweiligen Pixel.
Und nun zum Abschluss, ohne es groß vorzurechnen: jetzt fehlt noch der Sensor der NEX-5 und das kann ja mal jeder für sich üben, der hat fast die gleiche(!) Auflösung (also die Anzahl dpi) wie der Sensor der A7r. Und das heißt de fakto: egal welche Kamera das Foto gemacht hat, wenn man das Foto, oder einen beliebigen Ausschnitt davon auf dem vorhandenen Monitor mit 1:1 Pixelumrechnung darstellt, dann wird in beiden Fällen aus einem 1mm langen Seitenstück des Sensors ein 5,5cm langes Stück auf dem Monitor. Das ist ja auch logisch, denn der APS-C Sensor ist weniger als halb so groß wie ein KB Sensor und im Ausgleich dafür hat er in diesem Fall auch entsprechend weniger Pixel. Das bedeutet aber insgesamt, dass bei der berühmten 100% Ansicht (1 Sensorpixel = 1 Monitorpixel) die Vergrößerung identisch ist, egal ob das Foto vom KB Sensor kommt oder vom APS-C Sensor.