Hallo Sebastian,
Also wie gesagt, je mehr Bilder innerhalb der schärfentiefe desto höher aufgelöst werden die bilder, da z.B. ZS nur die am höchsten aufgelösten Stellen verrechnet. Fürs Internet sind 1 Bild pro Schärfentiefe ausreichend. (Quelle Kurt Wirz der verkauft nix).
Das ist jetzt aber mal ganz falsch...
Der Bereich heißt Schärfentiefe, da in diesem Bereich eben alles scharf ist. Dabei gibt es nur scharf und unscharf (davon dann von mir aus verschiedene Abstufungen), aber ein bisschen scharf ist wie ein bisschen schwanger oder ein bisschen tot - einfach blödsinn. man kann nun den Bereich der Schärfentiefe entweder mittels geometrische Optik, oder mittels Wellenoptik errechnen, wobei der wellenoptische Ansatz der konservativere ist, und damit den geometrischen Ansatz mit abdeckt. Je nach Herangehensweise sind verschiedene Eingangsgrößen notwendig (z.B. Bildweite, Gegenstandsweite, Öffnungsverhältnis/NA, Sensorgröße, Pixelgröße, Abbildungsfehler, etc.). Rechnen wir also mit der wellenoptischen Schärfentiefe, so ist damit auf jeden Fall sicher gestellt, dass es über den Stackingbereich keine unscharfen Ebenen gibt, sofern der Ebenenabstand nicht größer als selbige ist. Da innerhalb der Schärfentiefe aber alles scharf ist, macht es überhaupt keinen Sinn, mehrere Bildebenen dort hinein zu packen! Durch die zu vielen Bilder hat man keinerlei Informationsgewinn - im Gegenteil: Durch die daraus resultierenden, rechenbedingten Stackingartefakte hat man genaugenommen sogar Informationsverluste...
Die Abhandlung von Kurt Wirtz in allen Ehren, aber da stehen so manche physikalisch fragwürdigen Dinge drin. Daher schadet es nicht, wenn man manche Dinge auch mal hinterfragt oder auf plausibilität testet, bevor man es stumpf in der Welt verbreitet... (ist nicht böse gemeint!
)
Grüße Markus
P.S.: Falls jemand für seine Optik die wellenoptische Schärfentiefe berechnen will, kann er sich dieser Formel bedienen:
DOF=(L*4*(m/2NA)^2)/(m^2)
mit
L=Wellenlänge des Lichts (0,55um)
m=Vergrößerung
NA=Numerische Apertur