Nachhilfe inAuflösung, Beugungsscheibchen, Drizzle

#31
Re: Nachhilfe inAuflösung, Beugungsscheibchen, ...

Zitat von Kurt_Schneider:
Hallo Jan, offensichtlich meinst Du, das Seeing wirke über die ganze Aufnahme gleichmäßig. Das ist nicht der Fall. Beispielsweise kann die obere Partie einer Aufnahme nach rechts verzogen sein und die untere Partie nach links. Bei der nächsten kurzbelichteten Aufnahme kann es gerade umgekehrt sein. Bei genügend kurzer Belichtungszeit sind beide Aufnahmen scharf. Nach dem Stacken kommt trotz zweier, scharfer Aufnahmen nur unscharfer Quatsch heraus, da die Aufnahmen wegen der unterschiedlichen Verzerrung nicht zur Deckung gebracht werden können.
Kurt, was Du da schreibst stimmt zwar grundsätzlich und qualitativ, tendiert andererseits aber wieder zu einer Übertreibung.

Eine globale Bildverschiebung ist durchaus eine ganz wesentliche Komponente von Seeing und wenn diese mit einfachen Stacking-Algorithmen oder auch mit Tip/Tilt-Spiegeln reduziert werden kann, dann ergibt sich damit schon eine erhebliche Verbesserung der Bildqualität. Bei einer Adaptiven Optik ist das immerhin der führende Term. Wie erfolgreich eine einfache Tip/Tilt-Korrektur ist, hängt natürlich wesentlich von der Feldgröße und vom Seeing selbst ab.

Das ist aber alles wohlbekannt und eigentlich kalter Kaffee.

Gruß, Peter

SBIG AO-8T

IMAGE QUALITY, TIP-TILT CORRECTION, AND SHIFT-AND-ADD INFRARED IMAGING

 
#32
Hallo Jan,

ja wie soll man es denn anders bezeichnen, als "dreist". Es trifft den Nagel auf den Kopf. Oder wäre "schlampig" besser?

Also ich lese mir das hier mal gespannt durch.

Einerseits sagst Du man würde die volle Auflösung herstellen können.
Andererseits wählst Du insgeheim wohl doch einen anderen Wellenlängenbereich als Gerd. Gerd hat jedoch seine Formeln sauber auf den Tisch gelegt.

Weiter oben schreibst Du, das das Seeing eine ähnliche Wirkung wie das Drizzling aufweißt. Im letzten Post offenbarst Du uns, daß Du deine Formel auf einen Wellenlängenbereich aussteuerst, in dem das Seeing einen geringeren Einfluß hat.
Also an der Stelle müßten sich so einige veräppelt vor kommen.

Die volle Auflösung wird selbst in Figure 1 nicht demonstrativ gezeigt. Das Paper hatte ich gestern vor der Nase, weil ich den Unfug den Du hier wieder verbreitest nicht glauben kann. Aber es erstaunt mich nicht mehr. Das ist der 3 Themenkomplex für dieses Jahr in dem Du mit unsinnigen Annahmen versuchst die Beobachterschaft zu veräppeln.

Und ich hoffe Gerd wird die gleich noch was zur Wirkung der Intensität und der Überlagerung um die Löffel hauen. Denn die Trennlinie, so schön man sie bestaunen mag in der direkten ggü Stellung ist nicht das, was auf dem Chip auch abgebildet wird. Da wird summiert.
Aber mit der Integrationszeit im Kamerachip hast Du es ja nicht. Und im übrigen wirkt sich die ADC in der Kamera auf Deine These sogar noch kontraproduktiv aus.

Ja, schon dreist.

CS,
Gerrit
 
#34
Hallo Jan,

tja, wenn Experten Deine Arbeit entsprechend klassifizieren, sollte das inbesondere Dir zu denken geben. Evtl. haben andere Teilnehmer ja die von Dir gebotene Qualität der Ausführungen tatsächlich durchschaut und satt. Dabei finde ich seine Ausführungen diesmal sachlich und wertfrei. Ich hatte schon im Thema "Doppelspinne" damit gerechnet, daß er sich zu Wort meldet.

Oder sind wir schon wieder so weit, daß wir aufmerksam dabei zuschauen wie Du dir selbst ein Bein gestellt hast und Du wieder auf diese Leier zurück kommen mußt? Offensichtlich. Denn das Schema ist mittlerweile ein alter Hut.

Oder gabs da noch Anmerkungen zu den Zeilen danach. Das war doch letztendlich nur eine Zusammenfassung Deiner Argumentation. Davon müssen sich Mitleser nicht erst überzeugen, wenn sie diese lesen. Es kann sich jeder für sich auf Basis der von Dir gebotenen Zeilen selbst erarbeiten. Zu welchem Schluß würdest Du also kommen, wenn Du deine eigenen Zeilen nochmal reflektierst. Ebenso wie in den anderen Beiträgen (Fangspiegel, Doppelspinne), in denen Du versuchst andere auf die ähnliche Art und Weise zu überzeugen.

Wenn Dir "dreist" oder "schlampig" eine Spur zu weit geht.
Ok, da könnte man sich mäßigen.
Und doch: Es gehört schon ein starkes Stück dazu, jemanden der mittlerweile nachweißlich 3 gute Optiken gerechnet hat, als puren Theoretiker dahin zu stellen. Bei allen persönlichen Diskrepanzen die ich hier und da im Dialog mit Gerd hatte darf man das nicht ignorieren.

Können wir uns also auf "trollig" einigen?

CS,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:
#35
Hallo Jan,

typischerweise werden Luminanzbilder bei hochaufgelösten Planetenbildern mit Rotfilter bei einer mittleren Wellenlänge um 630 nm aufgenommen, so auch hier, und also nicht im Grünen bei mittleren Wellenlängen um 550 nm. Das solltest Du eigentlich wissen und berücksichtigt haben.
so so du verwendest also mit der R-RGB Technik ein Verfahren das einzig und allein dazu dient die Effekte des Seeings zu mindern und nimmst dafür auch gerne einen Verlust an theoretisch möglicher Auflösung in kauf weil so wegen der Minderung des Seeingeinflusses trotz des geminderten theoretischen Auflösungsvermögens die besseren Ergebnisse erzielt werden können als sie mit der RGB Technik erzielt werden.
Interessant, meinst du nicht das du dir jetzt gerade selber widersprochen hast?
Ja der Rot Kanal liefert das schärfere Ergebnis weil hier der Seeingeinfluss deutlich kleiner ist.
Gleichzeitig behauptest du aber das Seeing eine auflösungssteigernde Wirkung hätte, dann solltest du aber den Blau Kanal als Luminanz verwenden.
Da hättest du wegen der kleineren Wellenlänge von Haus aus eine höhere Auflösung und von der nach deiner Theorie auflösungssteigernden Wirkung des Seeings könntest du auch noch stärker profitieren.

Was deinen Jupiter angeht, auch mit 630nm liegt die Grenzfrequenz bei 0,51 arcsec und nicht bei 0,6.
Und wie schon gesagt mit Planetenbildchen so nett sie auch sein mögen überzeugst du mich absolut nicht.
Daraus eine Aussage zur Grenzfrequenz machen zu wollen ist rumstochern um Nebel und irgendwelche Schlüsse daraus basieren eher auf der Einbildungskraft des Betrachters als auf verlässlichen Fakten.
Das ist pure Kaffeesatz Leserei!
Wie gesagt mache vernünftige Aufnahmen von einem Siemensstern mit deiner Aufnahmetechnik und wir können die Sache vernünftig analysieren und sachlich darüber reden.
Alles andere ist Zeitverschwendung.
Ideal wäre einmal mit N=2,5P und einmal mit N= 3,6P oder höher und stelle sie nebeneinander dann hätten wir den direkten Vergleich.
Zur Auswertung der Siemenssterne wäre auch die Anwendung des in dem von mir schon verlinkten PDF vorgestellte Verfahrens sehr nützlich.

Im übrigen hatte ich darauf hingewiesen, dass zwischen den besagten Dots noch eine Trennlinie zu sehen ist, d.h., in der hier diskutierten Jupiteraufnahme wird tatsächlich die im roten Wellenlängenbereich nach Rayleigh zu erwartende Auflösung erreicht.
Wie gesagt das aus dem Bild zu schließen ist pure Kaffeesatz Leserei.

In der Diskussion geht es hier nicht zuletzt um die Wirkung des "Drizzelns", sei es nun durch künstlichen Versatz des Kamerachips oder infolge des Seeings, mit anschließendem Stacken. Da man beim Stacken bewusst auf die zu erfassenden Bildinhalte zentriert, wird das Kameraraster "ausgewaschen", d.h. es tritt als solches im Bildergebnis nicht mehr störend in Erscheinung, siehe hierzu Fig.1 in diesem Paper zum Thema: "Drizzle: A Method for the Linear Reconstruction of Undersampled Images".
Wie ich schon einmal schrieb hab ich nirgends die Wirkung des Drizzelns infrage gestellt und du musst mir das auch nicht erklären.
Ich hatte dir schon einmal geschrieben das es dreist von dir ist mir sowas zu unterstellen.
Das tust du hier nun zumindest indirekt wieder wenn du meinst mir das Drizzeln erklären zu müssen.

Wenn dir nicht passt das ich das auch mal beim Namen nenne solltest du dir mal an die eigene Nase fassen und deinen Umgang mit Gesprächspartnern hinterfragen.
Dann gibt es auch keinen Anlass dafür dass man mal etwas deutlicher wird.
Gerade du solltest da eigentlich ganz ruhig sein wenn ich mit den Thread zum Doppelspider anschaue sitzt du da aber ganz mächtig im Glashaus und solltest dich daher hüten mit Steinen zu werfen.

Die weitestgehende Auslöschung des Kamerarasters durch einen dynamischen Versatz zwischen Bildinhalten und Kameraraster mit anschließendem Stacken wird weder in Deiner Theorie, noch in Deinen Versuchen, noch in der von Dir zitierten Diplomarbeit berücksichtigt.
Also erstens ist das nicht meine Theorie, danke aber das ist zu viel der Ehre, da will ich mich nicht mit fremden Federn schmücken.
Ganz im Gegensatz zu deiner Theorie von der der auflösungssteigernden Wirkung des Seesings bin ich nicht der Einzige der viel vom Abtasttheorem hält.

https://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem

Und was die Wirkung des Drizzelns anbelangt so kann das selbstverständlich auch mit der von mir und im PDF gezeigten Methode auf Basis des Siemensterns dokumentiert werden.

Was die Wirkung des Senings anbelangt so kann das natürlich auch gezeigt werden und damit sollte klar werden das Seeing absolut nicht mit Drizzeln zu vergleichen ist.



Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
#36
Hallo zusammen,

es ging ja ursprünglich u.a. um den Effekt von Drizzle.

Anbei dazu zwei Stacks mit gleichem Ausgangsmaterial, einmal normal und einmal 2x2 Drizzle, ansonsten unbearbeitet.
Ansicht jeweils 100%.

Wie würdet ihr die Ergebnisse bewerten? Habe mir ehrlich gesagt noch keine finale Meinung gebildet.

Ganz normales Rohmaterial - hier die Details:
TAK 60 mit 374 mm Brennweite, Moravian G2-8300FW (Pixel 5,4 µm)
30 x 10 min Ha 2x2 binning
69 darks, 50 Flats, 50 Bias
Das ganze aufgenommen noch bevor ich den exakten Abstand Flattner-CCD, dank Hinweisen von Gerrit, eingestellt habe.

Gruß,
Alex

Ausschnitt 1:


Ausschnitt 2:

 
#37
Hi Alex,

für ein solches Beispiel bzw. Anwendungsfall "Deepsky Weitfeld" wäre für mich interessant, was Drizzling im Vergleich zur optischen Skalierung bringt. D.h. den jeweils linken Ausschnitt (ich nehme an, daß ist ohne Drizzling) mit 2 skaliert. Dann würde mich interessieren, was bei einer Aufnahme mit doppelter Brennweite, aber gleichem Öffnungsverhältnis bringt. Glaube, daß kannst Du nicht bereitstellen. Ich denke, da wäre mal ein Feldtest mit dem FSQ interessant. Zwar ändert sich das Öffnungsverhältnis beim Einsatz des Q-Extenders. Aber ein Vergleich F/5 mit 2x2-Drizzling und F/8 wäre durchaus spannend. Am FS60CB der Vergleich F/6 mit der X2-Konfiguration (2x Teleextender, obwohl F/12), dann aber am Mond.

Das Thema optimales Sampling ist hier wohl nicht so wichtig.
Für den Abstand zum Flattener kannst Du übrigens günstig entsprechende Passscheiben erstehen. Evtl. habe ich aber auch noch Distanzringe über.
Grüße,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:
#38
Hallo Jan,

ohne die fachliche Essenz meiner Kritik aufzuheben, möchte ich wenigstens mal für die doch harschen, persönlich ankommenden Worte entschuldigen. Die Kritik an meinem Verhalten ist da durchaus auch berechtigt. Und ich nehme sie gerne an.

Grüße,
Gerrit
 
#39
hallo Astroalex,

deine Bilder der Nebelregion sind vielleicht nicht so gut geeignet um den Gewinn durchs Drizzeln deutlich zu machen,
schau mal diesen Vergleich von Wolfgang Ries an Details in den Spiralarmen der M66:

Drizzle bei M66

Zu Seeing vs. Drizzle: Software ist IMHO nicht besonders gut darin zu entscheiden, ob ein bestimmtes Schnipsel aus einem ansonsten durch Seeing verzerrten Bild scharf und unverzerrt ist. Das geht ja bloß über den Kontrastwert des Schnipsels, und der ist nur lose mit der Schärfe korreliert. Es tut was, aber nicht vergleichbar mit einer sub-Pixel Verschiebung des vollständg intakten Bildes.

lg Tommy
 
#40
Hallo Gerrit,

Deine freundlichen Worte der Entschuldigung bezüglich bestimmter herabwürdigender Äußerungen nehme ich gerne an. Ich kann Dir versichern, dass ich hier niemanden veräppeln oder für dumm verkaufen will, sondern vielmehr selbst an der Aufklärung fotografisch festgehaltener Erscheinungen zum Verständnis der physikalischen Zusammenhänge ehrlich interessiert bin. Dabei gestehe ich mir ebenso wie jedem anderen Diskussionspartner selbstverständlich auch fehlerhafte Annahmen und Argumente zu, die ja gelegentlich durchaus hilfreich sein können. Das betrifft sowohl die aktuelle Frage nach der mit einem bestimmten Kameraraster erzielbaren Auflösung, als auch die an anderer Stelle diskutierten Zusammenhänge zwischen Spiderformen und Spikebildungen an hellen Sternen. Ich würde mich freuen, wenn wir künftig in etwas entspannterer Stimmung gemeinsam an der Aufklärung dieser und ähnlicher Fragen arbeiten können.

Dank und Gruß, Jan
 
#41
Zitat von tommy_nawratil:
Zu Seeing vs. Drizzle: ... Es [das Seeing] tut was, aber nicht vergleichbar mit einer sub-Pixel Verschiebung des vollständg intakten Bildes.
Hallo Tommy,

beim Drizzling "regnet" man doch die Inhalte von Pixeln eines bestimmten Ausgangsrasters auf ein feineres Raster. Man erreicht aber eine wirksame Rekonstruktion "des vollständig intakten Bildes" nur, wenn die "Tropfen" ein wenig "streuen". Bei meinen hochaufgelösten Planetenaufnahmen benutze ich routinemäßig die in AutoStakkert angebotene "1.5x Drizzle" Funktion und war immer davon ausgegangen, dass diese sich die sub-Pixel Verschiebungen zunutze macht, die sich in den Originalframes aufgrund des Seeings "niederschlagen". Würdest Du dieser Annahme zustimmen?

Gruß, Jan
 
#42
hallo Jan,

warum was annehmen, frag doch einfach Emil, er gibt bestimmt Auskunft was er als Drizzle Funktion implementiert hat und wie das konkret arbeitet. Da die Schnipsel aber sicherlich nie 100%ig einem turbulenzfreien Bild entsprechen, klappts halt auch nicht so gut als wenn das HST drizzelt. Bei diesen blöden Doppelbildern ZB versagt die Qualitätsbestimmung über den Kontrast völlig. Händisches Aussortieren der besten Frames hat bei mir immer am besten geklappt, deutlich besser als alle Algorithmen. Bis 2000 Bilder ging das, war ne schöne Meditation. Nur, heute haben wir gleich 12000 pro Minute, das hält ja keiner mehr durch einzeln anzuschauen und auszusortieren. Man ist froh, wenn der Algorithmus da etwas Verbesserung macht. Aber manchmal scherze ich "mit den langsameren Kameras habe ich schärfere Bilder gemacht." :D

lg Tommy

 
#43
Hallo Alex,

Anbei dazu zwei Stacks mit gleichem Ausgangsmaterial, einmal normal und einmal 2x2 Drizzle, ansonsten unbearbeitet.
Ansicht jeweils 100%.

Wie würdet ihr die Ergebnisse bewerten? Habe mir ehrlich gesagt noch keine finale Meinung gebildet.

Ganz normales Rohmaterial - hier die Details:
TAK 60 mit 374 mm Brennweite, Moravian G2-8300FW (Pixel 5,4 µm)
30 x 10 min Ha 2x2 binning
hier müssen wir unbedingt zwischen Planetenaufnahmen und DS Aufnahmen unterscheiden.
Bei Planetenaufnahmen kann durch die wesentlich kürzerren Belichtungszeiten die laterale Komponente des Seeings „eingefroren“ werden.
Bei DS natürlich nicht, wenn du satte 10min belichtest dann verschmiert das BS zum Seeingscheibchen und das kann durch kein Bildbearbeitungsverfahren wieder rückgängig gemacht werden.
Das FWHM ist daher bei DS Aufnahmen meist der begrenzende Faktor und nicht das Auflösungsvermögen der Optik.
Bei kurzbelichteten Planetenaufnahmen ist das anders.
Hier kann die laterale Komponente des Seeings bis auf die Verzerrungen „eingefroren“ werden.
Es bleiben also diese Verzerrungen und die axiale Komponente des Seeings welche durch die Deformation der Wellenfront verursacht wird übrig.

Desweiteren sind Planeten hell genug um selbst mit sehr kurzen Belichtungszeiten voll ausbleichet zu werden.
Bei DS ist das völlig anders, ein Plus an Details ergibt sich hier in der Regel nicht aufgrund kleinerer Pixel oder Drizzle sondern durch den Gewinn längerer Belichtungszeiten.
Wenn du also mehr Details aus dem Nebel herausholen willst dann solltest du länger belichten und nicht Drizzlen denn die Nebelstrukturen sind in deinen Aufnahmen längst noch nicht ausbleicht.

Leider haben viele völlig falsche Vorstellungen von den Größenordnungen der Details ihrer DS Aufnahmen.
Das liegt wohl an der in Relation zu Planeten gigantischen Ausmaße in denen uns diverse DS Objekte am Himmel erscheinen.
Wer zb. den Nordamerikanebel ablichtet und glaubt eine hohe Detailauflösung erreicht zu haben sollte sich mal die scheinbaren Größenverhältnisse zu Planeten bewusst machen.
120“ sind eben immerhin das 160 fache von 45“ unter denen uns der Jupiter erscheint.
Mit anderen Worten die kleinsten Details einer vermeintlich gut aufgelösten Aufnahme vom Nordamerika Nebel sind vielleicht nicht viel kleiner als der ganze Jupiter.
Das sollte man sich einmal bewusst machen.
Es besteht also ein ganz dramatischer Unterschied zwischen der Detailauflösung die zb. Jan am Jupiter erreicht und vermeintlich gut aufgelösten DS Aufnahmen.

Man darf daher keinesfalls beide in einen Topf werfen und sollte sich immer der dramatischen Unterschiede bei der Detailauflösung bewusst sein.
Vor diesem Hintergrund erscheint es wenig aussichtsreich mit Methoden die bei hochaufgelösten Planetenaufnahmen vielleicht Erfolge bringen bei dramatisch schlechter aufgelösten DS Aufnahmen die meist nicht durch das Pixelraster sondern eher durch Seeing (FWHM) und Belichtungszeit in ihren Details limitiert sind etwas bewirken zu können.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
#44
Hallo Tommy,

Zu Seeing vs. Drizzle: Software ist IMHO nicht besonders gut darin zu entscheiden, ob ein bestimmtes Schnipsel aus einem ansonsten durch Seeing verzerrten Bild scharf und unverzerrt ist. Das geht ja bloß über den Kontrastwert des Schnipsels, und der ist nur lose mit der Schärfe korreliert. Es tut was, aber nicht vergleichbar mit einer sub-Pixel Verschiebung des vollständg intakten Bildes.
es ist sehr schade das wenn es hier um Seeing geht immer nur die lateraler Komponente betrachtet wird.
Das ist doch aber nur ein Teil des ganzen Effektes.
Ja man kann durch kurze Belichtungszeiten die laterale Komponente „einfrieren“ und es bleiben noch die Verzerrungen.

Was hier aber völlig unter den Tisch fällt ist die Deformation der Wellenfront der Punktabbildung.
Hier geht es erst mal nicht um ein bestimmtes Feld also zb. den Bereich eines Planetenscheibchens und eventuellen Verzerrungen innerhalb dieses Feldes sondern um eine Punktabbildung!
Ich hatte die Wirkung des Sening für die Punktabbildung ja schon anschaulich mit der MTF gezeigt.
Aber leider scheint das irgendwie unterzugehen und man befasst sich weiterhin nur mit dem Feld und lateralen Bewegungen.

Befassen wir uns doch endlich mal mit dem Wellenfrontfehler der Punktabbildung.
Um es anschaulich zu machen das ist sozusagen die axiale Komponente.
Es fallen nicht mehr alle Zonen in den gleichen Fokus und auch der Punkt für den optimalen Fokus verändert sich denn je nach Wellenfrontfehler ergibt sich ein etwas anderer optimaler Fokuspunkt.
Das bedeutet Seeing beinhaltet neben sämtlichen Facetten von Asti über SA bis Koma diverser Ordnungen immer auch einen Defokus.
Man müsste also permanent nachfokussieren.
Der vom Seeing eingeführte Wellenfrontfehler kann durch kein Bildbearbeitungsverfahren korrigiert werden und auch durch keine noch so kurze Belichtungszeit eingefroren werden.
Man kann einzig und allein die Momente abpassen in denen er möglichst gering ist.

Der vom Seeing eingeführte Wellenfrontfehler kostet in jedem Fall Auflösung da er die MTF drückt, da beißt die Mas keinen Faden ab.
Es ist daher völliger Unfug dem Seeing eine Auflösungssteigernde Wirkung zuzuschreiben wie Jan das tut nur weil Seeing auch eine laterale Komponente hat die man sich zunutze machen könnte.
Da besteht ein Tunnelblick auf das vermeintlich Nützliche und alles Andere wird hartnäckig ignorieret.
Leider ist Seeing aber etwas komplexer als es Jan gerne hätte.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
#45
hallo Gerd,

völlig d'accor, ich sehe keinen Widerspruch: Die Auswahl der besten Schnipsel geht nur über den Kontrast, und der Kontrast wird durchs Seeing verändert über all die Faktoren die du erwähnst: Defokus, Koma, Asti, sphärische... und auch über laterale Verzerrungen. Der Kontrast kann sogar falsch gesteigert werden, ähnlich wie bei einer Sammellinse. Das Seeing hat zufällige und auch nicht-zufällige Anteile, wie jeder weiß welcher mal durch einen Jetstream beobachtet hat - die Sterne werden in Streifchen zerfetzt. Oder es kommt zu Doppelbildern, welche sogar ungleich groß sein können. Also keine Spur einer dem Drizzeln vergleichbaren Funktion IMHO.

Beim Deepsky Fotografieren sind wir heute aber auch schon ganz schön raffiniert geworden, da darf ich dir ein schönes Beispiel geben - NGC6894 ist ein Planetarischer Nebel von etwa Jupiter Größe, und guck mal die Details in der 100% Ansicht:
http://www.astrophoton.com/NGC6894.htm

Bernhard Hubl hat da 18 Stunden belichtet :)

lg Tommy


 
#46
Zitat von Jan_Fremerey:
Hallo Gerrit,

Deine freundlichen Worte der Entschuldigung bezüglich bestimmter herabwürdigender Äußerungen nehme ich gerne an. Ich kann Dir versichern, dass ich hier niemanden veräppeln oder für dumm verkaufen will, sondern vielmehr selbst an der Aufklärung fotografisch festgehaltener Erscheinungen zum Verständnis der physikalischen Zusammenhänge ehrlich interessiert bin. Dabei gestehe ich mir ebenso wie jedem anderen Diskussionspartner selbstverständlich auch fehlerhafte Annahmen und Argumente zu, die ja gelegentlich durchaus hilfreich sein können. Das betrifft sowohl die aktuelle Frage nach der mit einem bestimmten Kameraraster erzielbaren Auflösung, als auch die an anderer Stelle diskutierten Zusammenhänge zwischen Spiderformen und Spikebildungen an hellen Sternen. Ich würde mich freuen, wenn wir künftig in etwas entspannterer Stimmung gemeinsam an der Aufklärung dieser und ähnlicher Fragen arbeiten können.

Dank und Gruß, Jan
Hallo Jan,
ok, auch Dir vielen Dank.

Was für jeden einzelnen hinreichend ist, ist noch keine Gesetzmäßigkeit.
Ich würde es für mich auch entsprechend so formulieren wollen.
Ich für meinen Teil führe die Diskussion wieter im stillen Kämmerchen. Mir scheint, daß bie der Betrachtung ein paar Dinge außen vorgelassen werden.
U.a. die Amplitude, die Integration des Signals on Chip, der Übertrag zweier benachbarter Lichtpunktquellen hier ins besondere, die Eindeutigkeit des reproduzierten Information.
Das sind nur 3 wichtiger Aspekte, die mit in die Betrachtung einbezogen werden müssen. Und so lange das nicht gemacht wird, bin ich mir nicht sicher, ob man wirklich von "voller" Auflösung sprechen kann.

Grüße,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:
#47
Hallo Tommy,

Beim Deepsky Fotografieren sind wir heute aber auch schon ganz schön raffiniert geworden, da darf ich dir ein schönes Beispiel geben - NGC6894 ist ein Planetarischer Nebel von etwa Jupiter Größe, und guck mal die Details in der 100% Ansicht:
http://www.astrophoton.com/NGC6894.htm
ja das ist schon beachtlich was da an dem kleinen PN an Details sichtbar wird aber über 18 Stunden Belichtungszeit und das bei f/3,7 sind natürlich auch schon beachtlich.
Und dabei haben PNs eigentlich noch eine relativ hohe Flächenhelligkeit.
Man merkt aber hier das es eben auch die beachtliche Belichtungszeit ist die hier die beachtlichen Details zutage fördert.
Man wird mit wesentlich kürzerren Belichtungszeiten auch mit noch so raffinierten Tricks diese Detailfülle nicht erreichen können.

Grüße Gerd
 
#48
Zitat von tommy_nawratil:
Hallo Tommy,

guter Tipp, das habe ich gemacht, meine aktuelle Korrespondenz mit Emil ist über diesen Link zugänglich. Was ich jetzt schon sagen kann: Der ganze Streit über die Frage der Kameraankopplung beruht offenbar darauf, dass mir fälschlicherweise die Behauptung unterstellt wird, man könne das teleskopische Auflösungsvermögen mit Hilfe des Seeings aufbessern. In Wirklichkeit geht es aber doch bei der strittigen f/D Untergrenze immer nur um die erforderliche Kameraauflösung. Die Kameraauflösung ergibt sich zunächst aus dem physikalischen Pixelabstand p auf dem Kamerachip, und ausgehend von diesem kann man, wie u.a. am HST praktiziert, durch Drizzling ein feineres Abtastraster mit p_eff < p generieren. In der von Gerd und anderen Autoren vertretenen Formel f/D > 3,6*p müsste im Hinblick auf die Wirkung des Drizzlings statt p ein Wert p_eff < p angesetzt werden. Dieser muss in Übereinstimmung mit in der Praxis erzielten Ergebnissen bei der der Mond- und Planetenfotografie zu Werten f/D < 3,6*p führen.

Gruß, Jan
 
#49
hallo Jan,

aus dem verlinkten Mail-Auszug mit Emil kann ich nicht entnehmen, wie das Drizzle und die Auswahl der Schnipsel in Autostakkert implementiert ist. Natürlich gehts um das Sampling am Kamerachip, nicht um die teleskopische Auflösung. Wenn du ein durch Seeing unbestimmt verzerrtes Bild drizzelst, ist es nicht äquivalent als wenn du ein intaktes Bild drizzelst wie es beim HST der Fall ist. Wegen den anderen Voraussetzungen ist der Vergleich IMHO daher unzutreffend.

lg Tommy
 
#50
Zitat von tommy_nawratil:
aus dem verlinkten Mail-Auszug mit Emil kann ich nicht entnehmen, wie das Drizzle und die Auswahl der Schnipsel in Autostakkert implementiert ist.
Hallo Tommy,

zunächst habe ich die oben verlinkte Datei jetzt so präpariert, dass alle fünf Seiten meines Mailaustauschs mit Emil Kraaikamp zusammenhängend sichtbar werden. Aus der Korrespondenz geht nicht hervor, wie "Schnipsel" in AutoStakkert organisiert werden. Das ist allerdings für unsere Fragestellung auch unbedeutend, da Planeten oftmals ohne Schnipselunterteilung aufbereitet werden. Schnipsel sind eher angesagt bei großflächigen Bildern, etwa von der Mondoberfläche.

Zitat von tommy_nawratil:
Natürlich gehts um das Sampling am Kamerachip, nicht um die teleskopische Auflösung.
Das sollte man im Auge behalten.

Zitat von tommy_nawratil:
Wenn du ein durch Seeing unbestimmt verzerrtes Bild drizzelst, ist es nicht äquivalent als wenn du ein intaktes Bild drizzelst wie es beim HST der Fall ist.
Als mehr oder weniger "intakt" kann man bei Seeing-gestörten Bildern nur das durch Stacken einer größeren Anzahl von Videoframes generierte Summenbild betrachten. Beim Drizzling wird das Summenbild auf einem feineren Raster als dem Kameraraster organisiert. Dadurch wird die bei Undersampling durch das Kameraraster gestörte Lesbarkeit des Summenbilds in ähnlicher Weise verbessert wie bei der Verwendung einer höher auflösenden Kamera.

Gruß, Jan
 
#51
hallo Jan,

Autostakkert macht doch auch bei Planeten immer Zonen, also Schnipsel? Beim Drizzeln werden die auf ein feineres Raster als von der Größe der Kamerapixel vorgegeben angeordnet. So entsteht das gedrizzelte Summenbild. Es werden also meht oder weniger gestörte Bildschnipsel nach Kontrastabschätzung angeordnet. Das ist IMHO ein großer Unterschied zu einer Neuanordnung eines intakten Bildes (keine Schnipsel). In deinem Fall wo du relativ geringes Oversampling verwendest (Faktor 2,5), ist das aber sicher noch wirkungsvoll - wenn das Seeing passabel ist. Nimmt jemand Faktor 6 dann wird das oversampling schon bei der Aufnahme passieren und das Drizzeln bringt nix - my 2 cents.

Bei Deepsky können wir inzwischen unsere Rohbilder auch mit Drizzle stacken. Da haben wir es mit Langzeit Integration zu tun, jedes Einzelbild besteht bereits aus einem relativ intakten gemittelten Summenbild, welches als ganzes nach Sternpositionen in feinerem Raster angeordnet wird. Da können wir dann gut Deconvolution machen und so etwas mehr Details rauskitzeln.

lg Tommy
 
#52
Zitat von tommy_nawratil:
Autostakkert macht doch auch bei Planeten immer Zonen, also Schnipsel?
Hallo Tommy,

nein, die "Schipsel" - bei AutoStakkert sind das Quadrate - setzt man selber, oder man lässt sie automatisch generieren. Ich arbeite bei Planeten vorzugsweise mit nur einem zentralen, von Hand gesetzten Quadrat.

Zitat von tommy_nawratil:
Beim Drizzeln werden die auf ein feineres Raster als von der Größe der Kamerapixel vorgegeben angeordnet. So entsteht das gedrizzelte Summenbild. Es werden also meht oder weniger gestörte Bildschnipsel nach Kontrastabschätzung angeordnet. Das ist IMHO ein großer Unterschied zu einer Neuanordnung eines intakten Bildes (keine Schnipsel).
Natürlich kann man die dem Kameraraster entsprechenden Quadrate als "Schnipsel" betrachten, deren Inhalte dann beim Drizzeln nach Kontrastzuordnung auf das feinere Raster verteilt werden.

Zitat von tommy_nawratil:
In deinem Fall wo du relativ geringes Oversampling verwendest (Faktor 2,5), ist das aber sicher noch wirkungsvoll - wenn das Seeing passabel ist. Nimmt jemand Faktor 6 dann wird das oversampling schon bei der Aufnahme passieren und das Drizzeln bringt nix - my 2 cents.
Das sehe ich genau so! Wenn Günther und Kollegen die Grenze zum Oversampling bei 3,6*p sehen, dann ist das von mir angewendete Undersampling bei 2,5*p nur rund 1,5-fach, und dieses Undersampling wird offensichtlich, wie die praktischen Ergebnisse zeigen, durch das Drizzle-Verfahren in AutoStakkert weitestgehend ausgeglichen. Wenn man sich ohnehin im Oversamplingbereich bewegt, bringt Drizzling natürlich keinen Gewinn.

Zitat von tommy_nawratil:
Bei Deepsky können wir inzwischen unsere Rohbilder auch mit Drizzle stacken. Da haben wir es mit Langzeit Integration zu tun, jedes Einzelbild besteht bereits aus einem relativ intakten gemittelten Summenbild, ...
Der Unterschied ist nur der, dass das erreichbare Auflösungsvermögen bei Langzeitbelichtungen durch das Seeing begrenzt wird, und man das Auflösungsvermögen von Teleskopen mit > 4" Öffnung kaum noch erreicht. Die Formel f/D > 3,6*p, die Günther und Kollegen für starre Blder berechnen, bzw. die Untergrenze f/D > 2,5*p, die ich beim Drizzlen mit Alignment und Stacken von dynamisch gestörten Bildern beobachte, gelten beide im Hinblick auf das Erreichen des teleskopischen Auflösungsvermögens. Die Formeln stehen m.E. keineswegs im Widerspruch zueinander, und der ganze Streit darüber ist im Grunde entbehrlich.

Gruß, Jan
 
#53
Hallo Jan,

Der ganze Streit über die Frage der Kameraankopplung beruht offenbar darauf, dass mir fälschlicherweise die Behauptung unterstellt wird, man könne das teleskopische Auflösungsvermögen mit Hilfe des Seeings aufbessern. In Wirklichkeit geht es aber doch bei der strittigen f/D Untergrenze immer nur um die erforderliche Kameraauflösung.
es hat hier keiner behautet das du glaubst mit Seeing die Teleskopauflösung zu verbessern, es ging hier immer um die Bildauflösung und nichts Anderes.
Bezüglich Bildauflösung beinhaltet Seeing 2 entgegengesetzt wirkende Komponenten.
Komponente 1 der laterale „Versatz“ ist in der Tat dem eingangs von dir erwähnten Dithern vergleichbar und könnte in Verbindung mit einer mehrfach Abtastung genau wie Dithern zu einer echten Steigerung der Bildauflösung führen.
Das Abtasttheorem das erst einmal für eine einmalige Abtastung gilt greift in diesem Fall nicht.
Man muss hier also zwischen einmaliger und mehrmaliger Abtastung bei lateralem Versatz unterscheiden.
Soweit so gut aber!!!

Leider beinhaltet Seeing auch eine gegensätzlich wirkende Komponente.
Es sind die Verzerrungen im Feld und der Wellenfrontfehler für die Punktabbildung
Beides führt zu Kontrast und Schärfeverlust was letztendlich auch die Bildauflösung mindert.

Du musst bei Seeing leider immer beide Seiten der Medaille nehmen und kannst dir nicht die Schokoladenseite heraussuchen.
Unterm Strich wird letzten Endes der dem Dithern vergleichbare Bildauflösungssteigernde Effekt bei mehrfach Abtastung durch die Bildauflösung mindernde Komponente des Seeings wieder zunichtegemacht.
Und entscheidend ist nun mal was unterm Strich rauskommt und nicht was theoretisch wäre wenn es nur die Schokoladenseite gäbe.

Was das Drizzle betrifft so kann das nur eine pseudo Steigerung der Auflösung bringen und keinen Echte.
Denn letzten Endes kann immer er nur das an Information aus einem Bild herausgeholt werden was auch drin steckt.
Wer mehr herausholt als ursprünglich drin gesteckt hatte fügt nur künstliche Artefakte hinzu aber keine echten Details.
Diese Gefahr besteht durchaus!
Man kann aber mit Drizzle das Bild dahingehend verbessern das die ohnehin drinsteckenden Details etwas besser erkannt werden können.
Das „Glätten“ des Pixelrasters führt einmal zu einem ästhetisch ansprechenderen weil weniger verpixeltem Bild und zum anderen können durch die Glättung einige Details die im gröberen Pixelraster weniger Augenscheinlich waren aber dennoch schon da drin steckten durch die Glättung besser wahrgenommen werden.
Das ist aber keine echte Steigerung der Bildauflösung sondern dient lediglich unserem Gehirn das sich vom gröberen Pixelraster irritieren lässt einige Details besser wahrzunehmen und führt damit zu einer scheinbaren Steigerung der Bildauflösung.
Dennoch greift hier das Abtasttheorem denn im Ausgangsmaterial müssen nun mal die durch das Drizzle besser sichtbar gemachten Details auch schon drin stecken.

Wiegesagt wir können hier langen theoretisieren ohne auf einen Nenner zu kommen.
Mach einfach den Test mit dem Siemensstern und die Sache wäre schnell und einfach geklärt.

Grüße Gerd

 
#54
Ich glaube, man sollte den Effekt von Drizzling und Seeing teilweise getrennt betrachten:

Drizzling braucht natürlich den Versatz, und der wird durch das Seeing geliefert. Gut! Drizzling verringert das Diskretisierungsrauschen, d.h. man kann die optische Auflösung vollständig nutzen. Aber:

Seeing liefert leider keinen uniformen Versatz nach Wunsch, sondern alles Mögliche. Das tut es aber sowieso, mit oder ohne Drizzling. Stacking ergibt einen Durchschnitt, d.h. eine Konvolution des Bildes ohne Seeingeinfluss. Damit tauscht man die zufällige Verunstaltung durch Seeing gegen die systematische Verunstaltung durch Konvolution. Es gibt verschiedene Ansätze, die Auswirkung der Konvolution zu minimieren, z.B. die Korrelation eines Einzelbildes mit dem Durchschnittsbild oder die Auflösung des Bilds in Schnipsel. Das hilft ein Stück weit, aber die Konvolution bleibt immer noch sehr sichtbar, und darum braucht es Dekonvolution, um das Originalbild zu sehen. Das funktioniert um so besser, um so weniger Photonen- und Sensorrauschen man hat, weil das eben auch nicht systematisch ist. Mehr Licht und mehr Bilder helfen also, denn um so höher der Anteil der Konvolution an den Fehlern ist, um so mehr des Originalbilds kann berechnet werden.

Drizzling bringt also eine echte Steigerung der Abtastauflösung, und müsste darum den Einfluss von Seeing verstärken. Dennoch wird nach der Dekonvolution mehr als ohne Drizzling zu sehen sein, weil man den Einfluss des Diskretisierungsrauschens verringert.

Letztlich substituiert man Zeit gegen Auflösung.

Michael
 
#55
Zitat von Michael_Haardt:
Es gibt verschiedene Ansätze, die Auswirkung der Konvolution zu minimieren, z.B. die Korrelation eines Einzelbildes mit dem Durchschnittsbild ...
Hallo Michael,

das genau wird ja bei den Stackprogrammen offenbar gemacht.

Zitat von Michael_Haardt:
Mehr Licht und mehr Bilder helfen also, denn um so höher der Anteil der Konvolution an den Fehlern ist, um so mehr des Originalbilds kann berechnet werden.
Genau an dieser Stelle sehe ich den Vorteil einer möglichst lichtstarken Ankopplung der Kamera, auch wenn man damit in den Bereich des Undersamplings gerät. Denn einerseits kann man die Wirkung eines moderaten Undersamplings durch Drizzle weitgehend kompensieren. Andererseits kann man aber aufgrund der höheren Lichtstärke auf dem Kamerachip auch deutlich kürzer belichten und damit eine Verringerung der Konvolution durch das Seeing sowie gleichzeitig eine höhere Bildfrequenz erreichen. Beides führt zu einer besseren Rekonstruktion des ungestörten Bilds beim Stacken.

Zitat von Michael_Haardt:
Drizzling bringt also eine echte Steigerung der Abtastauflösung, ...
Ja!
Zitat von Michael_Haardt:
... und müsste darum den Einfluss von Seeing verstärken.
Warum das?
Zitat von Michael_Haardt:
Dennoch wird nach der Dekonvolution mehr als ohne Drizzling zu sehen sein, weil man den Einfluss des Diskretisierungsrauschens verringert.
Wie ist das zu verstehen?

Zitat von Michael_Haardt:
Letztlich substituiert man Zeit gegen Auflösung.
Im Sinne von: Kürzer belichten bringt höhere Auflösung?

Vielen Dank für Deine klärende Analyse des Sachverhalts!

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
#56
Je mehr man vergrößert, um so mehr schlägt Seeing zu, egal ob mit Drizzling oder mit kleineren Pixeln. Kleine Pixel sind allerdings überall gleich klein, während das Seeing individuell zuschlägt. Du musst also erstmal deutlich mehr Bilder haben, um alle drizzled Pixel zu befüllen, und dann nochmal mehr, um die Störungen vom Seeing bei allen Pixeln durch die Konvolution zu ersetzen.

Das Pixelraster kann man als hochfrequentes Rauschen verstehen. Drizzling senkt diesen Einfluss, d.h. wo vorher mit der Auflösung durch das Diskretisierungsrauschen Schluss war, geht es jetzt weiter. Allerdings wird die Dekonvolution um so wichtiger, je mehr das Seeing die Aufnahme begrenzt, und nochmal mehr, weil Drizzling letztlich auch für eine Konvolution sorgt.

Zeit gegen Auflösung: Du investierst mehr Belichtungszeit, um mehr Auflösung zu bekommen.

Mit kleineren Pixeln wirst Du vermutlich in Summe mit weniger Belichtungszeit auskommen. Im Einzelfall muss man aber alles in Betracht ziehen, z.B. die geringere full well capacity kleinerer Pixel.

Drizzling+Dekonvolution ist eine sehr interessante Technik, weil man bei gegebenen Beschränkungen mit mehr Zeit mehr rausholen kann. Es gab beim letzten CCC einen sehr interessanten Vortrag über die Auflösungssteigerung in der Mikroskopie jenseits der Beugungsgrenze, die letztlich zur gleichen Folgerung kommt: Mit mehr Zeit kann man mehr Auflösung bekommen.

Michael
 
#57
Zitat von Michael_Haardt:
Mit mehr Zeit kann man mehr Auflösung bekommen.
Hallo Michael,

vielen Dank für Deine detaillierten und einleuchtenden Erläuterungen. Man verringert ja tatsächlich sowohl mit kürzerer Belichtung, als auch beim Drizzlen mit der Ausbreitung der Bildinhalte auf ein höher auflösendes Raster den Rauschabstand, den man nachher nur mit SQR(t) zurückgewinnen kann. Immerhin beruhigend zu wissen, dass es funktioniert.

Gruß, Jan
 

Diese Seite empfehlen

Oben