Nein? Die meisten Rechner nehmen eine Zerstreuungskreisgröße von 1/1500 der Sensor-/Filmdiagonalen an (egal, ob das dann wirklich eine Betrachtungsentfernung entspricht, die für den jeweiligen Betrachter etwa der Bilddiagonale entspricht). Es sind also ~1500 unabhängige Farbkleckse auf der Diagonalen, entspricht (bei 3:2 Sensor) also ~1280x856 = 1095680 unabhängigen Farbklecksen (oder mehr oder weniger Pixeln im digitalen). Jetzt kommt das Bayerraster (für jeden resultierenden Pixel braucht man mindestens 3 Subpixel (RGB)). Es ist also +- ein 3.25 MPixel Kamera die da gut bedient wird.
Diese HF-Methode ist für 15x10 cm Abzüge immer noch so gut geeignet wie vor 50 Jahren, aber wer gibt sich schon mit 3-4 MPixel Information auf einem 15 MPixel Sensor zufrieden.
Ich meistens nicht und auch wenige hier, wenn man sich die Beschwerden über die "normale" Hyperfokalmethode ansieht.
Der Unterschied in unseren Betrachtungsweisen liegt einfach ganz woanders. Für mich ist die Sensorauflösung ein Bestandteil der Unschärfe im fertigen Bild, zusammen mit Beugung, Defokusunschärfe, Abbildungsfehlern, Verwackeln usw. Und ab wann die alle eine Rolle spielen, hängt ausschließlich davon ab, in welcher Größe bzw. aus welchem Abstand Du das fertige Bild betrachten willst. Für ein Passbild oder ein Avatar, aus der üblichen Entfernung betrachtet, kannst Du verwackeln, ein grottenschlechtes Objektiv benutzen, auf f/45 abblenden, es auf 1000 Pixel runterrechnen, alles kein Problem, es ist scharf. Andererseits kriegst Du eine 10fache Ausschnittvergrößerung in Postergröße ausgedruckt nur mit dem allerhöchsten Aufwand noch azeptabel scharf.
Wenn wir jetzt nur mal Beugungsunschärfe und Pixelzahl betrachten und alle anderen Unschärfequellen vernachlässigen (perfekt fokussiert, nicht verwackelt, perfektes Objektiv usw.), dann begrenzen diese beiden die maximal akzeptable Vergrößerung bzw. das maximale Verhältnis aus Bilddiagonale und Betrachtungsabstand. da zu gleich.
Dass der Faktor 1/1500 aus Zeiten von 10x15-Abzügen stammt, mag ja durchaus sein. Aber es hindert uns ja niemand daran, hier für die "normale Betrachtung" etwas höhere Ansprüche anzusetzen und einfach mit 1/2000 zu rechnen. Und wenn man höher vergrößern oder näher rangehen will, dann eben noch kleiner. Wer eine 100%-Ansicht auf seinem Bildschirm als normale Betrachtung ansieht, muss sich dann eben einen sinnvollen Wert ausrechnen. Ich rechne im folgenden mal mit 1/1500 als Grundlage und mit meiner kleiner angenommenen Beugungsunschärfe. Es sollen ja nur Beispiele sein.
Weil ich die Zahlen gerade vor mir habe: Vollformatsensoren mit 36MP (angeblich die kommende D800), 21MP (5D2) und 12MP (D700) erlauben bei Blende f/2, also bei nur wenig Beugung, (Ausschnitt-) Vergrößerungen um die Faktoren 5,6, 4,3 und 3,3, jeweils verglichen mit dem 1/1500-Kriterium. Da also ein ziemlicher Vorteil beim hochauflösenden Sensor. Bei Blende f/8 werden daraus 4,0, 3,4 und 2,9. Der Vorteil schmilzt. Bei Blende f/22 sind es dann nur noch 1,9, 1,8 und 1,7. Kein Wunder, bei kleiner Blende wird es beugungsbegrenzt, bei großer Blende (und auch sonst keinen Unschärfen) wird es auflösungsbegrenzt.
So, und mit diesem Wissen im Hinterkopf, würde
ich die optimale (oder eher "grenzwertige") HFD nicht aus der Pixelgröße bestimmen, sondern aus dieser maximal sinnvollen Vergrößerung und dem hier angenommenen Faktor 1/1500. Für den Fall mit Blende f/8 würde ich also 1/(1500*4,0)= 1/6000, 1/(1500*3,4)= 1/5000 und 1/(1500*2,9)= 1/4400 (alles gerundet) annehmen. Deine Methode würde zu etwa 1/9000, 1/7000 und 1/5000 führen. Bei f/22 wäre der Unterschied noch viel deutlicher.
Siehst Du den Unterschied? Ich meine nicht den in den Zahlen, sondern in der Herangehensweise?
Gruß, Matthias