8,3 µm Pixelweite bei f/20 ?

Status
Es sind keine weiteren Antworten möglich.

Jan_Fremerey

Aktives Mitglied
Nachdem ich nun – dank AviStack – in der Lage bin, älteres Videomaterial vom Mond in angemessener Weise auszuwerten, kann ich erstmals selbst Vergleiche anstellen, wie sich die Pixelgröße des Kamerachips auf die Detailzeichnung an der Auflösungsgrenze meines 6“ f/20 Fraunhofers auswirkt.

Zu meinem Erstaunen - und entgegen der verbreiteten Auffassung in der Astrogemeinde - scheint die damals (2004) verwendete Kamera „Marlin F046B“ von Allied Vision Technologies mit einer Pixelgröße von 8,3 µm im Vergleich zu der von mir derzeitig verwendeten DMK21 mit 5,6 µm hinsichtlich der „effektiven“ Detailauflösung durchaus konkurrenzfähig zu sein.

Als Belegfotos zeige ich hier zwei Aufnahmen in praktisch derselben visuellen Vergrößerung, allerdings von unterschiedlichen Ausschnitten der Mondoberfläche, die aber hinsichtlich der Oberflächenstruktur und der Beleuchtung sehr ähnlich sind.

Der Wiedergabemaßstab der Original-Videobilder ist natürlich bei einem Pixelabstand von 8,3 µm (Marlin) deutlich kleiner als bei 5,6 µm (DMK). Um auf denselben Darstellungsmaßstab am Bildschirm zu kommen, habe ich das in AviStack gewonnene Summenbild aus dem Marlin-Video vor der Weiterverarbeitung um 50% nachvergrößern müssen.

Bei dem nachvergrößerten Bild hätte ich spontan eine weniger detailreiche Zeichnung erwartet als in den (zwei) mit 5,6 µm aufgenommenen. Die Vergleichsfotos lassen aber einen Unterschied in dieser Richtung nicht erkennen.

Nun mag man den mit 5,6 µm aufgenommenen Bildern (Mosaik) zugute halten, dass das Seeing weniger perfekt war als bei der älteren Aufnahme mit 8,3 µm. Die Auswirkung auf die Detailwiedergabe ist aber dank des sehr differenzierten Multi-Point-Stackverfahrens von AviStack und einer Verwendungsrate von weniger als 10% im Falle der mit 5,6 µm aufgenommenen Bilder nicht gravierend, wie man u.a. sehr schön aus den von AviStack bereitgestellten Auswertediagrammen entnehmen kann.

Aus der hier gezeigten Gegenüberstellung entnehme ich, dass man bei f/20 auch mit 8,3 µm Pixeln und Nachvergrößerung auf 150% das Auflösungsvermögen des Teleskops weitestgehend ausnutzen kann. Die Verwendung von Kameras mit kleineren Pixeln bedeutet bei f/20 daher in meinen Augen ein nicht unbedingt erforderliches „Oversampling“.

Die größeren Pixel besitzen zudem prinzipiell ein größeres Lichtsammelvermögen und bieten eine dementsprechend höhere Helligkeitsdynamik. Außerdem wird bei gleicher Pixelzahl auf dem Kamerachip ein deutlich größerer teleskopischer Bildwinkel erfasst. Der Halbzoll-Kamerachip der Marlin mit 780x582 Pixeln bietet sogar die vierfache Fläche im Vergleich zum Viertelzoll-Chip der DMK21 mit 640x480 Pixeln.

Das ist interessant vor allem für Mondvideografen, die gerne großflächige Mosaike aufnehmen: Man kommt mit einer deutlich geringeren Anzahl von Teilbildern aus.



Südregion mit Clavius – Aufnahme mit FH 6“ f/20 – Pixelgröße 8,3 µm – Nachvergrößerung:150%

Link zur Grafik: http://www.astro-vr.de/20040401-204649_AS64v121md30_rot180dSinc150itGr179i10G300itGr101i2HEv4h3_Gdef_12e7-74e7g115_PPs5.jpg



Ptolemaeus-Gruppe – Zwei Aufnahmen mit FH 6“ f/20 – Pixelgröße 5,6 µm – Nachvergrößerung: Keine

Link zur Grafik: http://www.astro-vr.de/PtoM04_itGr202_HEa_G500_23-83e7g130.jpg


Die gezeigte Gegenüberstellung mag wegen der unterschiedlichen Aufnahmeobjekte und Bedingungen nicht ganz überzeugend erscheinen, kann aber vielleicht dem einen oder anderen "Praktiker" als Anregung dienen.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan,

Dein Ergebnis wundert mich gar nicht. Denn das theoretische Auflösungsvermögen Deines Refraktors beträgt nach Rayleigh 0.9". Die Pixelaufösung bei f/20 beträgt 0.38" bei 5.6µ und 0.57" bei 8.3µ.

Damit liegt die Pixelauflösung auch bei 8.3µ noch fast bei der Hälfte des theoretischen Auflösungsvermögens, was man für die Bildverarbeitung braucht. Durch das Seeing wird das Auflösungsvermögen des Teleskops ohnehin nach oben korregiert. Inwieweit die AVIStacker-Software das Auflösungsvermögen wieder nach unten verbessert, mag ich nicht zu beurteilen, würde aber Deinem Ergebnis entsprechen.

Ich habe mir zu diesem Zweck eine Watec 120N+ zugelegt, womit ich im IR sehr schnelles "Lucky Imaging" machen kann, und damit noch weniger Seeing-abhängig bin, hoffe ich.
Leider hat das Wetter noch nicht mitgespielt. Ich habe meine teleskopische Ausrüstung 40km weit weg in der Eifel stehen.

Peter
 
Hallo Peter,

an der Stelle sind wir dann offenbar ähnlicher Auffassung. Es gibt aber – nicht nur in diesem Forum – einige, durchaus auch erfahrene Autoren, die an der Beugungsgrenze ihres Teleskops vorzugsweise mittels Barlow oder Okularprojektion auf f/30 und kleiner „abblenden“, um eine möglichst hohe Bildauflösung zu erzielen.

Aufgrund meiner oben dargestellten Überlegungen sollte man die DMK21 eher bei f/15 statt bei f/30 betreiben und würde damit die Belichtungszeiten auf ¼ reduzieren können. Durch die Verkürzung der Belichtungszeit sollte m.E. am Ende ein mindestens ebenso großer Gewinn an Bildschärfe erzielt werden können, wie man ihn aufgrund des Oversamplings erwartet.

An diesen Aspekt hatte ich zuvor gar nicht gedacht, obwohl er eigentlich naheliegend ist.

Wenn die Eifel bei Dir nicht weiter als 40 km entfernt ist, bist Du ja vielleicht auch in der Bonner Gegend zuhause. Ich fahre manchmal 40 km von hier zur Hohen Acht, um dort aus 600 m Höhe über NN bei besserem Himmel zu videografieren.

Viel Glück mit Deiner Atik, und lass uns dann mal was von den Ergebnissen sehen!

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan,

Oversampling schadet zwar nicht, aber nützen tut es auch nicht aus informationstechnischer Sicht. Letztere besagt, daß die Hälfte des Auflösungsvermögens für die Pixelauflösung ausreicht, um ein Bild verlustfrei zu bearbeiten.

Ich glaube sogar, daß man mit einer schlechteren Pixelauflösung arbeiten kann, die aber dem Seeing entspricht. Dann müßte z.B. das AVIStacker Programm ein Retabulieren auf die halbe Winkelauflösung des Teleskops zulassen, z.B schon bei dem Align-Vorgang.
Das Retabulieren muß dann aber mittels Interpolation gemacht werden, nicht durch Pixelverdopplung. Dadurch kann man auch auf rechteckigen Pixel quadratische Pixel erzeugen, ohne Informatinsverlust.

Wichtig beim Unterdrücken des Seeings ist, die richtige Wellenlänge zu wählen (IR), eine hochempfindliche Kamera und damit sehr kurze Belichtungszeiten. Alles andere ist kontraproduktiv.

Ja, ich komme auch aus Bonn. Ich habe Deinen Faltrefraktor auch schon aus der Nähe bewundern können.

Peter
 
Hallo Peter,

hm, Rayleigh ist nach meiner Meinung und der vieler anderer Planetenfotografen kein Masstab fuer die zu verwendete effektive Brennweite bei Planeten- und Mondaufnahmen. Es lassen sich durchaus wesentlich kleinere Details "detektieren", als nach Rayleigh aufloesen. Dies betrifft besonders lineare Details mit hohem Kontrast, z.B. Mondrillen und den Klassiker Encketeilung in Saturns A-Ring. Hier der Klasskiker von EdZ in Sachen Encke. Allgemein lassen sich wohl solche Details etwa bis Rayleigh/4 wahrnehmen/aufzeichnen, auch kleine Craterlets, die dann zwar nicht vollstaendig aufgeloest aber eindeutig nachgiesen sind. Rayleigh bezieht sich eben auf punktfoermige Lichtquellen (Doppelsterne) und wird auch von Dawes schon aufgeweicht. Es laesst sich bei solch einer Detektierung natuerlich nichts ueber das wirklich Aussehen der Details sagen.
Das ganze klappt natuerlich nur mit entspr. hochwertigen optischen Komponenten, entsprechendem Seeing, Justage und Auskuehlzustand setzte ich mal als selbstverstaendlich vorraus.
Zum Thema Sampling gleich noch mehr...

Viele Gruesse & CS,
Oliver
 
Zitat von peterm:
Wichtig beim Unterdrücken des Seeings ist, die richtige Wellenlänge zu wählen (IR), eine hochempfindliche Kamera und damit sehr kurze Belichtungszeiten. Alles andere ist kontraproduktiv.
Hm, bei der Wahl der Wellenlaenge und damit des verwendeten Filters ist immer der Tradeoff zischen Aufloesung und Seeingberuhigung zu finden. Auch bei eher schlechtem Seeing finde ich den Aufloesungsverlust durch IR-Passfilter gegenuber dem Gewinn an Beruhigung schon kontraproduktiv. Persoenlich versuche ich immer zunaechst den Rotfilter, sind damit keine sinnvollen Aufnahmen moeglich, breche ich meist ab. Zum Verlust an Aufloesung durch lange Wellenlaengen kommt noch der Lichtverlust/laengere Intergrationszeiten bei Verwendung von IR-Passfiltern, bedingt duch die schlechtere Reflektivitaet im nahen IR vieler Objekte (ausgenommen Mars) und natuerlich die wesentlich geringere Empfindlichkeit der CCDs im nahen IR.
Am Mond kann ich mit dem Astronomik Rotfilter kuerzer belichten, als mit meinem Baader/Schott RG665 IR-Pass, an Saturn ist der Unterschied zw. Rot und IR-Pass bei schlechtem Seeing der von brauchbar zu nicht verwendbar dunkel. Aus Theorie und meiner Erfahrung und der anderer Planetenfotografen heraus ist ein IR-Pass mit Vorsicht zu verwenden und lange nicht so uneingeschraenkt zu empfehlen, wie Haendler und hersteller dies tun, ich rate meist eindeutig davon ab, der Hype ist leider viel zu gross.

Viele Gruesse & CS,
Oliver
 
Hallo Oliver,

das überrascht mich jetzt doch ein bisschen. Um einen Faktor 1.22 will ich nicht streiten, aber ein Faktor 4 scheint mir doch recht hoch gegriffen.
Ich habe schon Saturnbilder gesehen, die angeblich die Encketeilung zeigten, was sich dann aber als Artifakt aus der Bildverarbeitung herausstellte. Möglicherweise lassen sich damit auch die Muster in manchen Mondbildern erklären, wenn die stärker als theoretisch möglich geschärft werden. Machbar ist das, wie man sehen kann, schon. Ob es aber für die Bildästhetik vorteilhaft ist, möchte ich bezweifeln.

Ich lasse mich aber gerne überzeugen. Nur habe ich das bei meinen Aufnahmen nie erreichen können, was aber durchaus an den fehlenden Voraussetzungen liegen kann.

Dann könnte man z.B. Pluto/Charon auch schon mit einem C8 trennen. Ok, trennen nicht, aber eine Andeutung, also eine elliptische Abbildung sehen?


Gruß,
Peter
 
Hallo Oliver,

damit hast Du mich überzeugt. An den Auflösungsverlust habe ich nicht gedacht. Ich habe es auch noch nicht mit der schnellen Watec probiert. Was die Planeten angeht, würde ich den IR-Passfilter ohnehin nicht empfehlen. Bei Mond probiere ich es trotzdem einmal aus.

Und bei gegebener Kamera (DMK) ist sicher auch ein Grünfilter eine gute Wahl, weil die Kamera dort empfindlicher ist, als im Roten.

Trotzdem halte ich daran fest, eine schnelle Kamera zu benutzen, die möglichst kurze Belichtungszeiten zuläßt.

Vielen Dank für Deine Informationen.

Peter
 
Hallo Jan,

ein aeussert interessantes Thema, ueber das ich mir auch schon oefter Gedanken gemacht habe. Gehen wir mal von nahezu perfekter Optik und Seeing aus, so limitiert die Oeffnung das Aufloesungsvermoegen, mal angenommen Rayleigh/4 fuer lineare kontrastreiche Details. Bei 6" Oeffnung spuckt Rayleigh 0,91" Grenzaufloesung aus, Detektionslimit ist damit ~0,23". Mit f/20, also 3048mm Brennweite, messen 0,23" im Fokus 3,4µm. Nach Nyquist-Shannon "doppelt" abgetastet macht das 1,7µm Pixelabstand, fast Faktor 5 zu 8,3µm! Soweit die Welt der perfekten Optiken und des perfekten Seeings...
Selbst bei weniger perfekter Optik und auch Seeing halte ich das Sampling hier mit 8.3µm fuer zu grob, wenn auch die erwaehnten Faktoren wie kuerzere Interationszeiten zum besseren Einfrieren des Seeings zugunsten groesserer empfindlicherer Pixel sprechen.

Noch nicht angeschnitten ist auch das Thema Dynamikaufloesung, die groessere full well capacity der grossen Pixel gegenueber kleineren kann bei >8Bit Pixel A/D Wandlung und Ausgabe etwas bringen.

Die genannten Rechnungen oben betrachten aber alle nicht die verwendeten Prozesse unserer Aufnahmen, nämlich das Mittel vieler Einzelframes. Der Einfluss auf das Rauschen ist bekannt, wenig Fundiertes finde ich zum Thema "Subpixeldetails". Kann der Prozess des Mittelns vieler Frames, die alle bei der Aufnahme auch im Subpixelbereich gegeneinander verschoben sind, Details kleiner einem Pixel rekonstruieren (natuerlich mit Upsampling vor/waehrend dem Stacken)? Verfahren wie Drizzling sind dazu schon laenger im Einsatz, auch bei Hubbleaufnahmen. Ein wie ich finde sehr beleuchtenswertes Thema, das vielleicht auch zu Deinen Resultaten beigetragen hat, immerhin hast Du auch um einen Faktor hochgerechnet und erstaunlicherweise nicht den erwarteten Schaerfeverlust festgestellt.

Mein Fazit ist, dass immer ein den Bedingungen (Seeing, Optik,...) angemessenes Gesamtsystem gefunden werden muss, das funktioniert. Viele Faktoren haben gegenlaeufige Auswirkungen auf's Resultat, man muss irgendwo den besten Tradeoff finden.

Viele Gruesse & CS,
Oliver
 
Hallo Peter,

die visuelle Sichtung von Encke mit 8 Zoll bei sehr gutem Seeing u.a. von KaStern hier im Forum halte ich fuer sehr zuverlaessig, mit 9-10 Zoll gibt es viele aehnliche Berichte und Aufnahmen sind bei gleichen Bedingungen auch moeglich, die Theorie passt also. Natuerlich hat man sehr sehr selten Bedingungen dafuer, in den allermeisten Faellen bleibt die real erzielte Aufloesung weit darunter und die Optik muss wirklich sehr gute Qualitaet aufweisen und auf den Punkt justiert und ausgekuehlt sein. Ich hatte nur einmal solch ein Seeing, Saturn stand jedoch leider noch sehr tief und ich hatte nur 6 Zoll am Start...
Ich gebe Dir vollkommen recht, dass Aufnahmen mit diesem Sampling meist nicht mehr sonderlich aesthetisch aussehen und der Grad zwischen Realitaet und Artefakt ein sehr schmaler ist, gerade auch bei Encke gibt es so viele Fehlinterpretationen von Artefakten...
Mit meinem 9,25 Zoeller konnte ich beispielsweise bisher in der Praxis nie das Plus an Aufloesung von Gruen zu Rot nutzen und erzielte die besten Resultate immmer im weniger seeinganfaelligen Rot, obwohl der CCD im Grueen die kuerzesten Integrationszeiten erlaubt. Die Praxis laesst leider viel zu selten die schoenen Limits der Theorie zu :cool:
Bei gutem aber noch nicht sehr gutem Seeing entstand z.B. diese Aufnahme von Gassendi im C9. Ganz oben in den glatten Lavagebieten ist hauchduenn eine fast vertikal laufende Rille angedeutet, die ich zunaechst garnicht gesehen hatte, Bob Pilz hatte mich netterweise darauf hingewiesen. Bei Gelegenheit werde ich mal die Breite der Rille auf dem Mond recherchieren und schauen, wieweit hier aufgeloest ist. Gleiches habe ich auch schon ewig mit diesen Aufnahmen von Plato und Clavius im 6 Zoll MN vor. Die Craterlets in Plato lassen sich noch weiter rausschaerfen, jede Bildaesthetik geht damit natuerlich floeten :eek:

Viele Gruesse & CS,
Oliver

 
Hallo Oliver,

es sind ja sogar zwei Rillen.
Zum einen findet man sie hier auf dem Apollo 16 Bild (AS16-119-19167) und auch auf diesem Lunar Orbiter-Bild (IV-137-H2).
Für Gassendi habe ich einen Durchmesser von 110km genommen und mal auf dem LO-Bild verglichen.
Die Rillen dürften einen Durchmesser von ca. 1km haben, das macht ca. 0,5".
Das ist also gerade am Auflösungsvermögen von 9" nach Dawes.

EDIT: Habe nochmal genauer nachgerechnet. Für einen Rotfilter mit
angenommen 625nm ZWL ist es eigentlich sogar nur bei 0,55".
Das hast du mit der Aufnahme wahrscheinlich sogar minimal übertroffen. :)

Bei flacherer Beleuchtung und somit höherem Kontrast ist wahrscheinlich noch etwas mehr drin.
Und natürlich auch, wenn der Einsatz eines Grünfilters möglich ist,
dann kommt das C9 auf ~0,47". Der Auflösungsgewinn beim Wechsel
von Astronomik R nach Astronomik G ist generell ca. 15%.

Viele Grüße,

Mario
 
Zuletzt von einem Moderator bearbeitet:
Hallo Mario,

wow, danke fuer die schnellen Links :)
Die Auslaeufer der Rimae Herigonius sind hier nochmal besser zu sehen - bis zu den schlanker werdenden Enden habe ich sie lange nicht aufgenommen :cool:
Ja, bei besserem Seeing und haerteren Kontrasten geht noch mehr, bei den Bedingungen hier hatte es nichtmal fuer den Gruenfilter gereicht, zumindest wirkte das Lifebild bei einem Test nicht ausreichend...

Viele Gruesse & CS,
Oliver
 
Hallo Oliver,

ich hatte weiter oben schon "geglaubt", durch Drizzling eine Verbesserung hinzubekommen. Offenbar wird ein eventuelles "Unersamplen" durch Positionsveränderungen z.B eines Kraters auf dem Chip (hervorgerufen durch Seeing-Wabbern) aufgehoben (drizzeln). Das leistet dann z.B. AVIStack. Zumindest würde das durch retabulieren auf ein feineres Grid passieren.

Deine Aufnahmen sind alle sehr gut und zeigen nicht die typischen Datenverarbeitungsmuster. Allerdings hast Du auch "nur" 3fach gesampled. Bei einer Auflösung von 0.92", benutzt Du eine Pixelgröße von 0.26".
Wenn Du Deine Bilder um das 1.5fache verkleinerst, wird Du erkennen, das keine Strukturen vorloren gehen. Ich habe jedenfalls keinen Unterschied gesehen.

Gruß,
Peter
 
Hallo Peter,

ja – ich denke auch, dass man von einer subpixelgenauen Ausrichtung beim Stacken noch mehr erwarten darf als vom simplen Vervielfachen der Pixel. Leider ist mir mit der Datei in Registax das Resampling noch nicht gelungen, und in AviStack gibt es so etwas (noch?) nicht. Ich werde in dieser Richtung weiter experimentieren ...

Gruß, Jan
 
Hallo Oliver,

das sollte ja hier – wie eingangs bemerkt – eher als Anregung "für den Praktiker“ dienen. Inzwischen ist daraus eine recht interessante Diskussion um theoretische Aspekte geworden.

Sehr beachtlich für 6“ ist Dein Clavius! In dem findet man ja noch einiges mehr an Zeichnung als in meinem.

Inwieweit der Unterschied nun am Oversampling liegt – mit 5,6 µm bei f/30 wendest Du ja 5x soviel Pixel pro Flächeneinheit auf wie ich mit 8,3 µm bei f/20 – bzw. an der Optik, dem Seeing, oder der Bildbearbeitungstechnik, vermag ich nicht zu beurteilen. Da müsste man schon unmittelbare Vergleiche mit den beiden Kameras am gleichen Objekt und unter den gleichen Bedingungen durchführen. Das wäre gewiss eine spannende Unternehmung.

Mir schien an dieser Stelle erstmal bemerkenswert, dass man mit 8,3 µm auch schon bei f/20 und einfacher Nachvergrößerung - d.h. ohne subpixelgenaus Stacken - eine recht brauchbare Bildqualität erzielen und gleichzeitig mit einer größeren Chipfläche arbeiten kann.

Deine Nahaufnahmen sind jedenfalls eine echte Orientierung und Herausforderung. Vielen Dank für den Link!

Gruß, Jan
 
Hallo Oliver,

>>> Bei 6" Oeffnung spuckt Rayleigh 0,91" Grenzaufloesung aus, Detektionslimit ist damit ~0,23". Mit f/20, also 3048mm Brennweite, messen 0,23" im Fokus 3,4µm. Nach Nyquist-Shannon "doppelt" abgetastet macht das 1,7µm Pixelabstand, fast Faktor 5 zu 8,3µm! Soweit die Welt der perfekten Optiken und des perfekten Seeings... <<<

das stimmt meines Erachtens so nicht ganz. Es geht in der Sampingtheorie darum, wie man z.B. eine Messung ohne Informationsverlust datanverarbeiten kann. Aus der Erinnerung glaube ich zu wissen, daß man eine Gaußkurve (das ist die PSF) mit ca. 2.5 Punkten/Halbwertsbreite rekonstruieren kann. Das reicht meines Erachtens völlig aus.

Peter
 
Hallo Oliver,

habe nochmal über Deine Argumentation nachgedacht, mit der Du die Notwendigkeit einer feineren Pixelauflösung zur Erfassung von linearen Details begründest.

Da scheint mir doch ein Denkfehler vorzuliegen. Denn die linearen Details setzen sich ja bei einem gegebenen Auflösungsvermögen der optischen Kette allein schon deshalb besser durch, weil sie linien- und nicht punktförmig gestaltet sind.

Um die Sache bildlich zu veranschaulichen: Bei gleichem Querschnittsprofil lässt sich ein Graben nicht so schnell „zuschütten“ wie ein Loch. Oder - auf die optischen Beugungserscheinungen bezogen: Airy-Scheibchen „überschwemmen“ ihre Umgebung in höherem Maße mit Beugungsringen, wenn sie vereinzelt angeordnet sind, als wenn sie unmittelbar aneinandergereiht sind und auf diese Weise eine Linienstruktur bilden.

Es ist ja im übrigen auch unbestritten, dass man mit bloßem Auge feine Linien besser wahrnehmen kann als entsprechend feine „Punkte“.

Fazit: Es macht m.E. keinen Sinn, das Auflösungsvermögen des Detektors in dem von Dir begründeten Ausmaß über das effektive Auflösungsvermögen der gesamten optischen Kette hinaus zu steigern.

Gruß, Jan
 
Hallo Peter,

Zitat von peterm:
das stimmt meines Erachtens so nicht ganz. Es geht in der Sampingtheorie darum, wie man z.B. eine Messung ohne Informationsverlust datanverarbeiten kann. Aus der Erinnerung glaube ich zu wissen, daß man eine Gaußkurve (das ist die PSF) mit ca. 2.5 Punkten/Halbwertsbreite rekonstruieren kann.
Hm, hast Du mal eine Quelle dafuer? Nyquist Shannon war von mir nur als Daumenwert angefuehrt. Probleme: Der Input is nicht frequenzbeschraenkt und kein Tiefpass vorhanden, kein punktfoermiger Sensor sondern Pixelflaeche...
Teilweise wird fuer diese Applikation sogar 3x Nyquist als Sampling gefordert, hier ein schoenes Beispiel. Hier wird auch auf 3x Oversampling verwiesen.

Viele Gruesse & CS,
Oliver
 
Hallo Peter,

Deine Aufnahmen sind alle sehr gut und zeigen nicht die typischen Datenverarbeitungsmuster. Allerdings hast Du auch "nur" 3fach gesampled. Bei einer Auflösung von 0.92", benutzt Du eine Pixelgröße von 0.26".

Ja, meine Aufnahmen waren wohl auch keine guten Beispiele, denn:
- Das Seeing war lange nicht perfekt
- Die Qualiatet meiner eingesetzten Optiken muss nicht perfekt sein (Der MN61 ist sehr gut, das C9 ist gut, aber "sehr gut" kann ich nicht beurteilen)
- Die Justage war aufgrund des Seeing vielleicht 97% perfekt, aber nicht 100%
- Fokus

Die genannten max. sinnvollen Werte von mir sind wie geschrieben nur fuer nahezu komplett perfekte Bedingungen praktikabel. Darunter gilt es eben den besten Kompromiss aus den vielen gegenlaeufigen Faktoren zu finden, wie Integrationszeit, Sensorgroesse bzw. eff. Brennweite, Sampling, Gain=Rauschen, Wellenlaenge...

Das Stacken plus Retabulieren auf feinerem Raster ist in der Tat hochinteressant, aber ich finde dazu seit laengerem kaum Literatur. Die noetigen Positionsveraenderungen zwischen den Einzelframes sind durch nie perfekte Nachfuehrung, Seeing, Wind, Erschuetterungen etc. wohl praktisch immer gegeben. Aus dem Bauch raus sollte diese Moeglichkeit zum Sichtbarmachen von Details "zwischen den Pixeln" aber nicht Hauptaugenmerk bei der Wahl des Samplings sein.

Viele Gruese & CS,
Oliver
 
Zuletzt von einem Moderator bearbeitet:
Noch ein Nachtrag: Fuer das dem unseren sehr verwandten Feld der Mikroskopie gibt es zumnindest im Netz relativ viel Literatur zum Thema, wie z.B. hier:

Defining the → Ideal Sampling in terms of Spatial Resolution is frequently done as a rule of thumb ("sample with half of the Rayleigh Criterion") but this is not exactly correct, and in some cases will lead to UnderSampling (see Pinhole And Bandwidth, for example). The ideal sampling rate is better defined in terms of the system Band Width, which is determined by the Point Spread Function.

Viele Gruesse & CS,
Oliver
 
Hallo Oliver,

Dein Hinweis auf Mikroskope erscheint ja durchaus naheliegend. Habe eben mal unter Eingabe von "punktauflösung linienauflösung" gegoogelt. Da kommt als erstes folgender Eintrag:

Auflösung: 0,24 nm Punktauflösung; 0,14 nm Linienauflösung Vergrößerung: bis 1,5 Millionen-fach Hersteller: JEOL, Typ: 2010 Beschleunigungsspannung: 200 kV ...

Es handelt sich in diesem Falle offensichtlich um ein Elektronenmikroskop. Die Physik ist aber gewiss ähnlich wie im sichtbaren Bereich.

Gruß, Jan
 
Hallo Jan,

ja, wahrscheinlich ist die Physik aehnlich. Ich werde bei naechste Gelegenheit mal einige praktische Trockentests in der Wohnung machen, mal schauen, was dabei rauskommt.

Viele Gruesse & CS,
Oliver
 
Hallo Oliver,

ich denke, man muß unterscheiden zwischen dem Sampling bei der Aufnahme der Messreihe und dem anschließenden Datenverarbeitung.

Bei ersterm geht es darum, wie ich meine Daten mit möglichst wenigen Messwerten ohne Informationsverlust erfassen kann. Das hängt dann von den physikalischen Gegebenheiten ab. In unserem Fall also von der Auflösung des Teleskops. Und die kann man mit einer Gaußkurve annähern. Die Gaußkurve muß so gesampled werden, daß sie eindeutig aus den Messpunkten (ohne Rauschen) rekonstruiert werden kann. Dafür braucht man 2-3 Messpunkte pro Halbwertsbreite. Ein Zitat dafür kann ich Dir auf die Schnelle leider nicht geben.

Im zweiten Fall geht es darum, wie ich die bereits gewonnen Daten ohne weiteren Informationsverlust verarbeiten kann. Da spielt dann das Nyquist Theorem ( Sampling Theorem ) eine Rolle.
Typischerweise benutzt man z.B. für das Retabulieren die Sinc-Funktion (sin(x)/x) und tapered die mit einer geeigneten Funktion, die wiederum durch die Physik bestimmt wird. In unserem Fall ist das eine Gaußfunktion (PSF).

Peter

 
nochmal ein kleiner Nachtrag:
Ich will anhand eines Beispiels zeigen, daß man mit 2 Pixel pro Halbwertsbreite auskommt.
Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/gauss.png

Dazu habe ich zwei Gaußkurven (rote und grüne Kurve) mit der gleichen Halbwertsbreite aber unterschiedlicher Amplitude überlagert (schwarze Kurve).
Dann habe ich als blaues Histogramm die Quantsierung durch die Pixelauflösung (0.5 * Halbwertsbreite der Gaußkurve) hinzugefügt. Ich hoffe, das ist nicht zu unübersichtlich geworden. Die Halbwertsbreite entspricht der Winkelauflösung eines Teleskops.

Das Bild zeigt meines Erachtens gut, daß das gewählte Sampling zum Abtasten der Mondoberfläche ausreicht. Wohl bemerkt, wir halten uns im Bereich auf, der nicht aufgelöst ist und physikalisch auch nicht aufgelöst werden kann (schwarze Kurve).

Peter
 
Hallo Peter,

eine sehr schöne Demonstration!

Bei dieser Gelegenheit möchte ich gerne noch den von Oliver zitierten Test kommentieren, der im Falle der sauberen Reproduktion des Streifenmusters für dreifaches Oversampling spricht.

Das Beispiel ist insofern irreführend, als die scharfkantige Abbildung des Streifenmusters tatsächlich eine sehr viel höhere Bandbreite als 100 dpi erfordert. Richtiger wäre die Auswahl eines Bildmusters mit einer auf 100 dpi begrenzten Bandbreite gewesen.

Gruß, Jan
 
Hallo Jan,

ich habe mir den Test gerade mal angesehn, die Seite ist allerdings schwer erreichbar.
Dieser Test trifft auf unser Problem ohnehin nicht zu. Die PSF ist eine Gaußkurve, also müssen alle Strukturen, die wir im Fernrohr betrachten, mit dieser Gaußkurve gefaltet werden. Damit wird aus einer scharfen Kante ein weicher Übergang, abhängig von der Teleskopauflösung. Wenn ich mal Zeit am Wochenende habe (das Wetter spricht dafür), werde ich mal solche Faltungen machen und gegebenenfalls hier prasentieren.

Gruß,
Peter
 
Hallo Jan,

ja, das Beispiel ist unpassend, denn die Eingangsbedingung von Nyquist-Shannon, dass das abzutastende Signal frequenzberschraenkt mit fmax sein muss, ist hier nicht gegeben. Bei unsere Anwendung erfuellt aber gerade das Teleskop die Funktion des noetigen Tiefpassfilters...
Soweit sind wir nicht auseinander, ich antworte nachher nochmal detailierter...

Viele Gruesse & CS,
Oliver
 
Pyramide auf dem Mond

Hallo zusammen,

ich habe mich heute damit beschäftigt, wie eine Pyramide auf dem Mond bei unterschiedlichen Teleskopauflösungen erscheint.
Grundlage dafür ist die Abbildungseigenschaft eines Teleskops und gibt im Idealfall (ohne Seeing und andere Abildungsfehler) die Charakteristik einer Punktquelle wieder. Diese Funktion, die das leistet, nennt man im englischen Point spread function (PSF). Angenähert ist das eine Gaußfunktion.
Strukturen, die wir durch ein Fernrohr betrachten, werden durch die Optik, eben durch diese Funktion abgebildet.

Ich habe nun für mehrere Teleskopauflösungen (Teleskopdurchmesser) diese Abbildung getestet. Dazu habe ich eine Pyramide konstruiert, und diese mittels Faltung (englisch convolution) mit der PSF zum Vergleich dargestellt.

Blickrichtung ist immer von oben.

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/falt1.png

Die rote Figur soll die Pyramide darstellen. In der Mitte zusehen ist die PSF und als Strich markiert die Halbwertsbreite dieser PSF. Gefaltet mit der PSF zeigt die blaue Kurve die Pyramide, wie man sie (von oben betrachtet) mit einem Teleskop dieser Auflösung sehen würde.
Offenbar reicht im ersten Fall die Auflösung des Teleskops nicht aus, um die Treppenstruktur erkennen zu können.

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/falt2.png

Im zweiten Versuch ist die Halbwertsbreite, also die Auflösung des Teleskop, kleiner gewählt und die Treppenstruktur wird schon gut angedeutet.

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/falt3.png

Im dritten Versuch ist die Teleskopauflösung schon so gut, daß es kaum noch einen Unterschied zwischen der originalen Pyramide und der Abbildung durch's Teleskop gibt. Das ist eigentlich der Normalfall z.B. beim Auge.

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/falt4.png

Zum Schluß habe ich schwarze Kästchen eingetragen, die den Pixel einer Kamera entsprechen. Wobei die Pixelauflöung in diesem Fall die halbe Halbwertsbreite beträgt. Was eigentlich Anlaß des ganzen Threads hier ist.

Ich hoffe ich kann damit alle Kritiker überzeugen, daß es ausreicht, Objekte mit einer CCD aufzunehmen, deren Pixelauflösung der Hälfte des Auflösungsvermögens des Teleskops entspricht. Damit ist auch meine Faustformel gültig, die ich weiter oben schon einmal bestimmt habe.

f/D = 3 * Pixel[µ]

Diese Formel erhält man ganz einfach, indem man die Pixelauflösung mit der Brennweite in Beziehung setzt.

Jan und Oliver, ich hoffe, ich konnte Euch überzeugen. Wenn nicht (auch wenn ja), laßt es mich wissen.

Hobbyastronomen wissen ja schon lange, daß eine Vergrößerung am Teleskop nicht mehr bringt, wenn sie viel größer als der Teleskopdurchmesser in Millimeter ist.
Offensichtlich hat sich das bei Hobbyfotografen im Astrobereich noch nicht herumgesprochen.

Kürzere Belichtungszeiten und größeres Gesichtsfeld sind das Resultat meiner Überlegungen.

Gruß,
Peter
 
Status
Es sind keine weiteren Antworten möglich.
Oben