Hallo Markus
Beides sind Modelle unter speziellen Annahmen. In einer realen Situation hast Du typischerweise keine kohärente Beleuchtung und keine periodische Struktur. Dafür hast Du ortsabhängig Unterschiede im Kontrast (dunkler Kristall auf hellem Hintergrund aber daneben feinste weiße Nadeln auf eben diesem hellen Hintergrund), Rauschen (auch im uneigentlichen Sinn, dass Du einen starken Signaluntergrund und darauf nur wenig Modulation hast), limitierte Signalaufzeichnung, Abbildungsfehler etc.
Das leistet keine der Formeln - dadurch variiert aber in einer konkreten Aufnahmesituation die erzielbare Auflösung im Bild ortsabhängig.
In einer realistischen Aufnahmesituation geht auch die Belichtungsdauer ein (das hängt dann wiederum mit der Kontrastdynamik zusammen), die Stabilität des mechanischen Aufbaus etc.
Dazu kommt bei der digitalen Fotografie die Softwareeigenarten und beim Stacking noch spezifischen Probleme, welcher Bildteil von der Software weiter verrechnet wird.
Dann sehen wir am Ende ein gestacktes Bild, jeder auf seinem (kalibrierten?) Monitor (die einen mit Brille und die anderen ohne) und diskutieren über die gesamte Abbildungsqualität. Da liefert die Auflösung nur einen beschränkten Beitrag zum Gesamtergebnis.
Wenn dazugesagt wird, welche Begriff verwendet wurde, passt es. Die reale Situation komplett erfasst keine der beiden Begriffe(1,2).
Gruß, Martin
Anmerkungen
(1) Beide Formeln sind nur Schätzer(!): nachdem die Auflösung eines optischen Systems mindestens orts-, kontrast- und wellenlängenabhängig ist und reale Objekte ausgedehnt, strukturiert und bunt sind, bräuchte es mathematisch deutlich mehr Aufwand, dafür Formeln anzugeben. Oder man müht sich mit dem entsprechenden (ebenso aufwendigen) Formalismus der point spread function.
(2) Der Begriff "Auflösung" hängt vom Zweck und vom Kontext ab. Es gibt eine Reihe abweichender Definitionen: Kantenauflösung, Auflösungsbegriffe definiert an Abbildungsensembles (aus der Elektronentomograpie), entropisch begründete Auflösungsbegriffe etc.
Grüße, Martin
Edit
Für ein Kundenprojekt hatten wir damals versucht, 3D-Bilder aus der Multiphotonenmikroskopie zu invertieren, d.h. via inverser Transferfunktion auf das reale (nanostrukturierte) Objekt zurückzurechnen. Theoretisch geht das unter einigen Annahmen und Randbedingungen dann, wenn das Abbildungssystem (die Optik incl. Bildaufzeichnung) als lineares System beschreibbar ist. Im Zuge dessen zeigte sich, was ich damit meine: beide Formulierungen sind nur Modelle.