Aufnehmen, Stacking, mal anders :-)

Peter_Bresseler

Aktives Mitglied
Moin zusammen,

Astrofotografie kann sehr techniklastig und damit auch fehlerbehaftet sein. Auf den Punkt genau, muss Nachführung/ Guiding/ Fokussierung/ Hardware/ Software etc... gut funktionieren. Daher bin ich schon seit einiger Zeit mit Autoguiding-freiem lucky imaging unterwegs, um die Anforderungen zu reduzieren. Autoguiding praktiziere ich seit Jahren nicht mehr, d.h. ich verzichte komplett auf Guider/ Kamera, und lass die ausgerichtete Monti mit Teleskop + laufender Kamera "laufen". In der Regel stacke ich nicht sofort, sondern lasse SharpCap die 16-Bit RAWs in separaten Ordnern abspeichern.

Normalerweise kommt danach Autostakkert zum Einsatz, aber auch SharpCap biete hier eine interesseante Variante zum nachträglichen Stacking, und zwar ebenfalls mit dem Live-Stacking - Feature. Dazu geht man auf das Kamera-Menu, wählt "Folder Monitor Kamera" anstatt der Kamera. Auf der rechten Seite erscheinen die Settings und über BROWSE lassen sich die ungestackten gespeicherten RAWs laden. Mit dem Histogramm stretcht man die Helligkeit so, dass die erste Aufnahme sichtbar wird.

Nun öffnet man das Live-Stacking Menue und startet auf der Camera Controll Site den Run. Möglicherweise ist hier das Histogramm noch einmal zu re-setten. SharpCap stackt von nun an die Aufnahmen aus dem angegebenen Verzweichnis. SharpCap alinged und stacked die Aufnahmen mit hilfe des Live-Stacking-Features, nachträglich. Filtersettings zur Schärfung und Rauschminimierung lassen sich ebenfalls einstellen.

Nach dem (1.) Run lässt sich das Ergbnis abspeichern, z.B. als 16-Bit debayert File, danach wird der Screen ge-clear-de, und auf der Camera Controll Site rechts ein neuer Ordner (2. Sequenz) geladen und auch dort gestartet. Die zweite Runde wird gestacked, u.s.w...

Screenshot 2023-02-27 084917.jpg


Im Ergebnis bekommt man eine bestimmte Anzahl von gestackter FITs-RAWs zur weiteren "klassischen" Verarbeitung in PI oder Sirli oder...

rosette_raw.jpg


Das Alignment basiert hierbei auf der Live-Stacking-Methode und ist sehr akkurat, und ich finde es eine coole und einfache Sache, ihr vielleicht auch...

CS
Peter
 
Hallo Peter,

das funktioniert super. Wie bist du drauf gekommen?

Gruß Olaf
 
Hi Olaf,

das funktioniert super. Wie bist du drauf gekommen?

dieses Feature ist nicht neu. Vor einiger Zeit habe ich damit herumgespielt und die Methode wollte ich hier teilen, da es für den einen oder anderen interessant ist. Astrophotografie und auch die Nachbearbeitung erfordert Technikeinsatz und die Anwendung von allen möglichen Tools, SharpCap gehört für mich dazu, da es zumindest in diesem Kontext Prozesse vereinfacht.

CS
Peter
 
Dann fehlt ja nur noch ein bisschen Guiding mit der Hauptkamera, so dass man auch bei kleinen Bildsensoren noch auf dem Objekt bleibt. Das spart dann wieder Einrichtungszeit fürs Alignment, dann lieber ein bisschen zwischen den Kurzzeitbelichtungen guiden. Oder geht das auch schon?
 
Hi,

Astrofotografie ohne Guiding mittels Kurzbelichtungen ist auch mein Weg.

Gute Idee die Folder Kamera im Nachhinein als Live-Stacker zu benutzen. Eigentlich ist es ja das gleiche wie ein klassischer Stacker, aber man hat einen direkteren Zugang und sieht das Ergebnis schon während dem Stacken und kann auch mit den SharpCap Mitteln dabei eingreifen. ZB beim Stacken einen Background Gradienten entfernen oder Schärfen oder Entrauschen.

Dann fehlt ja nur noch ein bisschen Guiding mit der Hauptkamera, so dass man auch bei kleinen Bildsensoren noch auf dem Objekt bleibt. Das spart dann wieder Einrichtungszeit fürs Alignment, dann lieber ein bisschen zwischen den Kurzzeitbelichtungen guiden. Oder geht das auch schon?
Man kann zB den Sequencer von SharpCap benutzen und nach ein paar Aufnahmen ein Recenter des Ausschnitts durchführen.

Oder meine Idee: man benutzt die Drift Daten aus SharpCap um laufend zwischen den Bildern zu korrigieren.
Das will ich eigentlich schon lange machen, bin aber noch nicht dazu gekommen.

Gruß
Peter
 
Moin zusammen,

Dann fehlt ja nur noch ein bisschen Guiding mit der Hauptkamera, so dass man auch bei kleinen Bildsensoren noch auf dem Objekt bleibt. Das spart dann wieder Einrichtungszeit fürs Alignment, dann lieber ein bisschen zwischen den Kurzzeitbelichtungen guiden. Oder geht das auch schon?

SharpCap kann das auch, habe ich aber noch nicht ausprobiert. Dort heißt es "Feature Tracking"

Man kann zB den Sequencer von SharpCap benutzen und nach ein paar Aufnahmen ein Recenter des Ausschnitts durchführen.

genau, die re-center Funktion des Sequencers heißt -Platesolving-. P.S. Im SharpCap Sequencer lassen sich alle möglichen Funktionen ausführen und clustern, Montierung-, Kamera-Funktionen sequentiell starten bishin zum Parken der Montierung.

Oder meine Idee: man benutzt die Drift Daten aus SharpCap um laufend zwischen den Bildern zu korrigieren.

gute Idee, du denkst da an die natürliche Drift.

das wäre - Korrektur anhand der Driftdaten - letztlich Guiding mit der Aufnahmekamera. Wenn sich das umsetzen läßt wäre das sicher auch interessant.

richtig. Eine andere interessante autoguiding-freie Variante sind die Guiding - Settings - des Live Stackings, dort ist sogar "Dithern" möglich in Verbindung mit ASCOM Pulse guiding. ASCOM Pulseguide ist sozusagen standard. D.H. ist der PC über USB mit der Montierung verbunden, triggert SharpCap dither Impulse kontrolliert an die Montierung....

CS
Peter
 
Hi,

richtig. Eine andere interessante autoguiding-freie Variante sind die Guiding - Settings - des Live Stackings, dort ist sogar "Dithern" möglich in Verbindung mit ASCOM Pulse guiding. ASCOM Pulseguide ist sozusagen standard. D.H. ist der PC über USB mit der Montierung verbunden, triggert SharpCap dither Impulse kontrolliert an die Montierung....

denn brauch ich keine Guidecam? Das läuft dann so zu sagen über die normale Aufnahme Kamera?

Gruß Olaf
 
Hi,

das mit dem Dithern von SharpCap habe ich bisher so verstanden, dass halt ein "normales" Dithering durchgeführt wird, also ein minimales Verschieben der Position.
Aber zum Guiden braucht man eine externe Guiding App zB PHP2 mit Guiding HW und muss diese connecten.

Ich habe bisher nicht gedacht, dass SharpCap, wenn man gar keine Guiding App konfiguriert hat, dabei auch ein Guiding anhand der Drift Daten macht (was sonst?).

Ich bin schon mit dem ASCOM Device Hub am testen. Man sieht im Activity Log das Slew Pulse zum Dithern von SharpCap an die Montierung kommen.
Aber ich bin am Zweifeln ob dabei auch ein Guiding stattfindet. Könnte aber sein. Dann ist aber auch die Beschreibung missverständlich.
Bin am recherchieren oder testen wenn es mal wieder klar ist.

Das wäre eine super Funktion.

Gruß
Peter
 
Hi Olaf,

denn brauch ich keine Guidecam? Das läuft dann so zu sagen über die normale Aufnahme Kamera?

es gibt ja verschiede Ansätze. 1) EAA und Live Stacking on the fly, d.h. du hast eine Guding Cam und betreibst live Stacking, oder du nutzt keine Guding Cam und betreibst Live Stacking. In beiden Fallen stackt die Software (z.b. SharpCap) live mit. ODER 2) ich verwende keine Guding Cam, SharpCap speichert schön meine Aufnahmen als FITs ab, und im Nachhinein nutze ich wie oben beschrieben das Live Stacking Feature. Ohne Guiding ergibt sich eine natürliche Drift, das Live Stacking Feature gleich das aus und addiert die Aufnahmen zusammen. Funktionen wie "Schärfung", "Glättung", "Dithern", Addition bis/ nur zu einem bestimmten FWHM-Wert, alles das geht, muss man aber nicht nutzen. Die native Live Stacking Funktion ist schon eine coole Sache...

CS
Peter
 
Hi Peter,

das mit dem Dithern von SharpCap habe ich bisher so verstanden, dass halt ein "normales" Dithering durchgeführt wird, also ein minimales Verschieben der Position.
Aber zum Guiden braucht man eine externe Guiding App zB PHP2 mit Guiding HW und muss diese connecten.

Ich habe bisher nicht gedacht, dass SharpCap, wenn man gar keine Guiding App konfiguriert hat, dabei auch ein Guiding anhand der Drift Daten macht (was sonst?).

du kannst natürlich alles in Verbindung mit PHD + Guiding Cam machen. Mir geht es hier um eine Vereinfachung des Aufnahmeprozesses durch Kurzbelichtungen, dieses in Verbingung mit SharpCap (+LiveStacking) zu Bildverarbeitung der RAWs als Vorbereitung zur weiteren Verarbeitung in PI/ PS/ Sirli etc...

Das Dithern, ohne Guding-Cam, funktioniert in Verbindung mit ASCOM - Pulse-Guding. Das setzt voraus, dass die Montierung über ASCOM verbunden ist.


ist wohl der falsche Ansatz... Ich connecte ASCOM direkt, ich kenne aber nicht den Unterschied zum ASCOM Hub

CS
Peter
 
Hi Peter,

du kannst natürlich alles in Verbindung mit PHD + Guiding Cam machen. Mir geht es hier um eine Vereinfachung des Aufnahmeprozesses durch Kurzbelichtungen, dieses in Verbingung mit SharpCap (+LiveStacking) zu Bildverarbeitung der RAWs als Vorbereitung zur weiteren Verarbeitung in PI/ PS/ Sirli etc...

Das Dithern, ohne Guding-Cam, funktioniert in Verbindung mit ASCOM - Pulse-Guding. Das setzt voraus, dass die Montierung über ASCOM verbunden ist.
also ich habe es gestern ausprobiert.
Ich habe Guiding ohne Guiding App konfiguriert und im Live-Stack dann das Dithern aktiviert.

Eine "echtes" Guiding mittels der Drift Daten findet leider nicht statt. Eigentlich schade ;) .

Die Drift beim Live-Stacking bei aktivierten Dithern ohne Guiding ist weiterhin vorhanden. Es werden nur im konfigurierten Intervall die Dither Bewegungs Befehle, "hochtraberisch" Pulse Guiding genannt, an die Montierung gesendet. Ist mir schleierhaft wieso er das trotzdem Guiding nennt.

Aber ich finde trotzdem das Live-Stacking ohne Guiding, aufgrund der Einfachheit, eine tolle Sache und man bekommt auch schöne Aufnahmen, die sich eigentlich bis auf den Drift Rand nicht von anderen Methoden unterscheiden.

ist wohl der falsche Ansatz... Ich connecte ASCOM direkt, ich kenne aber nicht den Unterschied zum ASCOM Hub
Der ASCOM Device Hub ist schon richtig. Der wird ja auch extra von den ASCOM Leuten empfohlen. Es ist sozusagen die Referenz Implementierung der ASCOM Devices und er sorgt für eine korrekte Kommunikation und fängt Fehler oder Inkompatibiltäten der verbundenen Devices ab.

Man muss ihn aber nicht benutzen und kann sich auch direkt connecten.

Im Device Hub muss man die "echten" Devices, also zB den ASCOM Synscan Driver, konfigurieren. Er leitet die Kommunikation an diese weiter.
Der Device Hub hat ein paar zusätzliche Möglichkeiten, zB kann man die Kommunikation protokollieren und anschauen oder kann Dinge ausprobieren. Das ist sehr praktisch.

Gruß
Peter
 
Hi Peter,
ich nutze seit wenigen Wochen auch das Stacking bei sharpcap u bin sehr zufrieden damit. Danke für deinen Tipp dazu.
Mit DSS u Siril bin ich diesbezüglich nicht recht voran gekommen.
Da ich aber ohnehin mit sharpcap meine RAW Daten generiere u mittels Livestacking die Session beobachte, ist jetzt alles überschaubarer geworden.
Toll dass ihr Erfahrenen uns an eurem Wissen teilhaben lasst. Danke nochmal :y: CS Axel _
 
Hi Axel,

ich nutze seit wenigen Wochen auch das Stacking bei sharpcap u bin sehr zufrieden damit. Danke für deinen Tipp dazu.

ich finde es auch eine coole Sache, dass man live-Stacking auch im Nachhinein zur Bildverarbeitung einsetzen kann und SharpCap macht das richtig gut. SharpCap nutze ich eben auch zur Erzeugung der FITs-Rohdaten, ohne Live-Stacking. Dabei kommt auch der sog. Sequenzer zum Einsatz, um die ganze Hardware (Montierung, Kamera, und letztendlich PlateSolving) anzutriggern. Da gibt es auch eine python-script API zum anprogrammieren, wer es mag ;-)

Dazu hatte ich einen Artikel in Sterne und Weltraum geschrieben/ veröffentlicht, der das ganze Thema umschreibt. Siehe Sterne und Weltraum, SharpCap 4.0: Der heimliche Astrofotograf

CS
Peter
 
Hi Peter, wie der Zufall so will bin ich auch auf der Suche nach einem gangbaren Sequenzer. Wollte mich so langsam bei NINA einarbeiten, aber nun schaue ich erst mal, was sharpcap zu bieten hat. Danke für den Hinweis :y:
Vielleicht kann ich so in Zukunft schon wertvolle Belichtungszeit nutzen, während ich noch in der Spätschicht bin...
CS Axel _
 
Oben