2 DSLR-Sessions in PI vereinen - nur wie?

Status
Es sind keine weiteren Antworten möglich.

Luke76

Aktives Mitglied
Hallo Sternenfreunde!

Ich bin PixInsight Anfänger, habe aber schon ein Paar Bilder erfolgreich neu bearbeitet. Geholfen haben mir die Videos von @frasax
Nun stehe ich aber vor einer neuen Herausforderung, habe hier Bilder von 2 DSLR-Sessions, diese möchte ich zu einem Bild zusammenrechnen und stehe gerade vor der Wand.
Für PI Poweruser sicherlich ein Klax, für mich... nicht ;)
Wie soll ich hierbei vorgehen? Bisher habe ich die Lights, Flats, Darks und Biases zu jeweils einem fertigem Stack zusammen gebastelt, Es sind also 2 gestackte Bilder fertig, die noch miteinander verrechnet werden müssen:
Screenshot_20200521_233841.png

Ich hoffe, das stimmt soweit. Das sind die beiden Bilder (ca. 1 Monat auseinander, identisches Setup), hier wurde nur STF angewendet, ansonsten ist hier noch nichts passiert.
Falls das soweit richtig ist, wie geht es weiter?

Gruß
Lucas
 
Hallo Lucas,

als erstes StarAlignment, damit die Bilder aufeinander passen. Danach ImageIntegration um die aligned Bilder zu vereinen. Kann sein, dass ImageIntegration meckert, dass es 3 oder mehr Bilder sein müssen.

Klone einfach deine beiden aligned Bilder und pack dann die beiden aligned Originale+Klone in die Liste bei ImageIntegration.

Gruss
Dennis
 
Hallo Lucas,
ich arbeite mich selbst gerade erst in PI ein. Bilder von mehrere Sessions stacke ich nach wie vor in der Freeware DeepSkyStacker. Das geht da sehr komfortabel, da du Bilder zu Gruppen zusammenfassen kannst. Bei zwei Sessions z. B. alle sessionunabhängigen Bilder (also Bilder die in beiden Sessions mit den gleichen Parametern aufgenommen wurden, z. B. Darks, Flatdarks, Bias) in die Hauptgruppe. Die sessionspezifischen Bilder (i. d. R. Lights und Flats) der Session 1 in Gruppe 1, die Bilder der Session 2 in Gruppe 2. Den Rest macht DSS dann automatisch, d. h. da kommt ein gemeinsames Summenild für alle Sessions zusammen raus.

In PixInsight geht das aber sicherlich auch. Hier musst du sicherlich deine fertigen Summenbilder der beiden Sessions erstmal aufeinander registrieren, d. h. zueinander ausrichten. Mit dem PI-Prozess StarAlignment also entweder Bild A nach Bild B ausrichten oder umgekehrt.

Anschließend mit DynamicCrop die schwarzen Ränder in beiden ausgerichteten Bildern abschneiden. Dabei beide Bilder mit den gleichen Einstellungen von Dynamic Crop beschneiden, damit sie genau übereinander passen.

Als nächstes noch vor dem Zusammenfügen empfiehlt sich bei beiden Bildener eine Gradientenkorrektur, entweder mit AutomaticBackgroundExtractor oder mit DynamicBackgroundExtraction.

Als nächstes die Histogramme der Bilder zueinander ausrichten mit LinearFit, also entweder Bild A als Referenz für Bild B oder umgekehrt (wie bei StarAlignment).

Jetzt kannst du noch Noise Reduktion o. ä. auf die einzelnen Bilder machen oder erst zusammenrechnen und die weitere EBV dann am gemeinsamen Summenbild.

Das Zusammenrechnen geht sicherlich mit Pixelmath. Gib den Bildern Identifier, z. B. "A" und "B". Dann in Pixelmath die Formel eingeben. Wenn du beide Bilder mit dem gleichen Equipment und jeweils der gleichen Gesamtbelichtungszeit aufgenommen hast, kanns du als Formel einfach "A + B" eingeben und PixelMath damit auf eines der beiden Bilder anwenden. Du kannst in der Formel auch gleich die Helligkeit des Summenbildes etwas steuern, da die Summe beider Bilder sonst etwas heller wird. Also z. B. "(A + B) / 2" wäre der Durchschnitt beider Bilder. Oder "A + B - med(B)" auf Bild A angewendet würde als Ergebnis die Helligkeit von Bild A beibehalten. Diese Helligkeitskorrekturen kann man aber auch später nachträglich machen.

Wenn du die beiden Bilder verschieden gewichten willst, z. B. wegen unterschiedlicher Belichtungszeit, verscheidener Filtertransmissionsbreiten o. ä. , müsste die Formel etwa so aussehen:
"n * A + (1 - n) * B", wobei n eine Zahl zwischen 0 und 1 ist. Wenn Bild A z. B. dreimal so lange wie Bild B belichtet wurde, ergäbe das "0,75 * A + 0,25 * B". Du kannst auch n als Symbol definieren und dann in der Symbolzeile n einen Wert zuweisen. Das ist praktisch, wenn man mit verschiedenen Gewichtungen schnell testen will, was rauskommt.
 
Danke euch für die Antworten,
habe heute Nacht die erste Variante von @Raumfisch probiert, bin mir aber nicht sicher ob es das ist was raus kommen soll. Das aufeinander registrieren hat sichtbar an einem Bild funktioniert (schräge Ränder) aber nach der Integration müsste doch eigentlich das "Extra-Bild" im Stack etwas heller sichtbar werden oder nicht? Die erste Serie war nicht mittig fotografiert, es müsste also am rechten Bildrand ein dunklerer Bereich zu sehen sein. Ist aber nicht so. Habe bei der Registrierung und der Integration die Defaultwerte benutzt.

@frasax Hmmmmm... wie meinst du das? Habe beide Bilder mit dem Script Batchpreprocessing gestackt. Welche Dateien müssen in welchen Ordner? Bitte um mehr Details, habe PI erst seit einer Woche :)

@Mafir Uiiii! Das klingt kompliziert, habe es heute Nacht nicht mehr geschafft es zu probieren, vielleicht morgen. Das Setup ist zwar das gleiche aber die Belichtungszeit nicht. Erste Serie war 10x240s, 2. Serie war 30x240s
Mehr habe ich nicht nach dem Aussortieren... Glaube auch nicht dass dieses Bild jemals brauchbar wird, es ist sehr rauschbehaftet, habe wohl auch zu kurz belichtet. (Optolong L-eNhance)

Gruß
Lucas
 
Das Batch Preprocessing Skript erzeugt dir ja mehrere Unter-Ordner.

Für die Kombination aus allen Session verwendest du den Ordner in Output/calibrated/debayer (könnte auch debayert sein) aus deinem beiden Sessions.

Wenn du noch nicht gestackt hast, kannst du im BatchPreProcessing auch die Option "Calibrate Only" aktivieren. Dann wird nicht unnötig registriert und gestackt.

Diese müsstest du von beiden Session in das BatchPreProcessing Skript hinzufügen können und Flat/Bias/Dark weg lassen. Danach sollte ein gestacktes Bild von allen Sessions heraus kommen.

Gruß und viel Erfolg
 
Hallo Lucas,
das klingt komplizierter als es ist. Wem die sicherlich guten Video-Tutorials von frasax und Co. nicht so liegen, weil er lieber etwas "Konstantes zum Lesen" auf dem Monitor haben möchte, für den gibt es auch etliche gute Tutorials in Textform. Am besten finde ich hierbei die Tutorials von Kayron Mercieca auf Light Vortex Astronomy - Tutorials
Die sind allerdings auf Englisch. Es gibt aber auch ein paar deutsche Anleitungen im Netz.

Ich habe mich aber bisher nur mit dem Postprozessing in PI nach dem Stacken beschäftigt, da ich das Stacken noch in DSS erledige. Für deine bereits vorhandene beiden Summenbilder sollte das nachträgliche Zusammenrechnen mit PixelMath gehen, auch wenn das gemeinsame Stacken mit ImageIntegration wahrscheinlich der normale Weg ist.

Da Bild A deiner ersten Session 1/4 der Gesamtbelichtungszeit und Bild B der zweiten Session 3/4 der GBZ beiträgt, passt die Formel "0,25 * A + 0,75 * B" in PixelMath.
 
Zuletzt bearbeitet:
Hmmmmm... wie meinst du das? Habe beide Bilder mit dem Script Batchpreprocessing gestackt. Welche Dateien müssen in welchen Ordner? Bitte um mehr Details, habe PI erst seit einer Woche

Hi,
du machst, wie in meinem Video beschrieben, nur die Kalibrierung in BPP (Häkchen Calibrate only). Einmal für die eine Nacht, dann für die andere. Die Ergebnisse legst du zusammen in einen Ordner, machst dann damit dein Debayering, Staralignement und ImageIntegration.
Sicher geht das auch ähnlich wie in DSS in Gruppen in einem Rutsch in BPP, habe ich aber noch nie gemacht, das kann sicher jemand anderes erklären.

Interessant wäre mal, was es statistisch für einen Unterschied macht. Mein Gefühl sagt mir, es ist was anderes wenn ich zwei fertig gestackte Bilder kombiniere, anstatt alle Bilder zusammen zu kombinieren. Kann das jemand mit mehr Wissen über die Statistik bestätigen? Zumindest in Punkto Ausreißer müsste das was ausmachen.
Ansonsten wäre die Pixelmath Variante mit A+B/2, also der Mittelwert m.E. die richtige.

CS Frank
 
Hallo zusammen

Interessante Frage, die Lucas hier gestellt hat.
Ich habe auch schon Daten aus verschiedenen Nächten gehabt und diese dann aber beim BPP einfach alle zusammen gefasst.
Sowohl alle Lights, Flats, Darks (der verschiedenen Nächte.) und dann BPP durchgeführt, um das gestackte Bild zu erhalten.

War (ist) das Grundsätzlich falsch??

Sorry, das ich hier "Off-Topic" werde....:oops:

Viele Grüße... AchimL
 
Ich denke mal, mit einer gekühlten Kamera ist das OK, ich habe dieses Bild letztes Jahr noch mit einer DSLR gemacht und da waren die Temperaturen jeweils verschieden. Desshalb möchte ich die Daten nicht einfach so zusammen werfen.
 
Das kann funktionieren, muss aber nicht. Wenn z.b. die Kamera dazwischen nicht ab montiert wurde sollte das passen. Wenn aber doch wird vermutlich die flat Korrektur nicht perfekt funktionieren.

Normal sollten die Frames mit den zugehörigen Flats (+Darks) kalibriert werden. Danach kann das alles sauber gestackt werden.

Gruß
 
Hallo Lucas

Hatte vergessen zu erwähnen, das ich Bilder auch mit einer DSLR mache (EOS 7D),
und die ist noch nicht einmal AstroModifiziert.

Wie gesagt, ich pack die Lights, Darks, Flats alle ins BPP und Stacke dann alle Daten.
Aber ob das nun so richtig (optimal) ist, weis ich nicht.

Viele Grüße... AchimL
 
Hallo pmneo85

Das erscheint mit logisch, was Du geschrieben hast.

Viele Grüße... AchimL
 
Hallo!
Wie gesagt, ich pack die Lights, Darks, Flats alle ins BPP und Stacke dann alle Daten.
Aber ob das nun so richtig (optimal) ist, weis ich nicht.
Nein, das geht so nicht. Mit den Darks kann man das ggf. noch machen, falls die Chiptemperatur in beiden Nächten nicht sehr verschieden war, aber die Flatfieldkorrektur kann so evtl. nicht korrekt arbeiten. Da muss nur ein Staubkorn anders liegen und schon verschenkst du Qualität. Jedenfalls ist es unsachgemäß.
Ich mache es stets wie Frank sagt: Lightframes aus jeder Nacht mit den dazugehörigen Korrekturframes kalibrieren, dann debayern, registrieren und stacken. Durch die hohe Anzahl korrigierter und damit "gleichwertiger" Lights kann die Software Ausreißerwerte (wie Satellitenspuren) besonders zuverlässig erkennen und das gute Signal kann besser vom bösen Rauschen getrennt werden.
Bei sehr großen Einzelserien, ist der Unterschied zwischen dieser Methode und dem bloßen (A+B)/2 von zwei Summenbildern vermutlich nicht sehr groß, aber da die Ausschleusungsalgorithmen ja mit großen Stacks besser werden, würde ich auf diesen Vorteil nicht verzichten und grundsätzlich die Kalibration von der Integration trennen. Ist ja außerdem nicht wirklich mehr Arbeit.

Gruß
Sebastian
 
Heute Nacht habe ich die verschiedenen Methoden probiert, das stacken der kalibrierten Bilder endete immer wieder mit Fehlern, weiß leider nicht warum aber zum Schluss (04:30 Uhr) probierte ich es dann mit PixelMath und das hat dann auch tatsächlich geklappt :)
Screenshot_20200523_121137.png

Hier sieht man auch den Versatz den ich dann später noch zurecht geschnitten habe. Damit kann ich leben ;)
Das wird ganz sicher kein gutes Bild ergeben, da habe ich offensichtlich zu viele Fehler bei der Aufnahme gemacht aber es dient jetzt nur zum PI-Training.

Vielen Dank für eure Unterstützung!

CS
Lucas
 
Hallo Lucas,
so, wie Frank es beschreibt, ist es richtig. Du kalibrierst die Aufnahmen der beiden Nächte separat in BPP (Häkchen bei calibrate only setzen). Dabei werden die Aufnahmen auch debayert. Anschließend lädst Du die kalibrierten und debayerten Aufnahmen der beiden Sessions gemeinsam in Star Alignment und registrierst sie. Die registrierten Aufnahmen aus StarAlignment stackst Du dann mit ImageIntegration. Auf keinen Fall darfst Du die Aufnahmen beider Sessions zusammen in BPP bearbeiten, weil Flats und Darks, vorausgesetzt, Du hast sie ordentlich gemacht, nicht übereinstimmen. Das getrennte Registrieren und Stacken der Aufnahmen von beiden Sessions und dann das Addieren der beiden Einzelbilder mit Pixelmath ist auch nicht zu empfehlen. Frag mich aber nicht, warum. Experten können das besser erklären. :) Für den Versatz bist Du selbst verantwortlich. Der entstand bereits bei der Aufnahme. Abgesehen davon ist Deine Aufnahme einwandfrei. Ich nehme an, Du weißt, dass noch weitere Arbeitsschritte in PI bis zum fertigen Bild erforderlich sind.
CS
Hermann
 
Nur so als Anmerkung: du musst beim batchpreprocessing nicht zwingend ein Bild aus der Session als Referenz Bild wählen. Dann müsstest du nur noch den Imageintegration Task mit den registered Images aus beiden Sessions wählen.... Ich verarbeite meine LRGB Daten immer so ... (4 separate Stacks).

Gruß
 
@HermannvonEiff Ok, danke für die Anleitung, werde es so versuchen.
Ja, das mit dem Versatz war natürlich meine Schuld, habe bei der ersten Session das ziel nicht mittig gesetzt, hatte in dieser Nacht noch ein Paar mehr Probleme. Aber egal, das nächste mal wird es ganz sicher besser, habe mein Equipment soweit im Griff :)
Klar, das ist natürlich lange nicht das Ende der Bearbeitung, habe auch extra geschrieben, es ist nur gestackt und STF. Habe das Bild schon fertig aber es gefällt mir immer noch nicht. Es rauscht unglaublich.
NGC6888_PM_PCC_DC_SCNR_DBE_ACDNR_MT_CT.jpg

Volle Auflösung: NGC6888
Dazu kommt noch, es ist nur mit einem Optolong L-eNhance Dualband Narrowband Filter aufgenommen, es ist also nur 2-Farbig. die blauen Strukturen kommen eigentlich gar nicht zur Geltung obwohl es in mondlosen Nächten aufgenommen wurde.

CS
Lucas
 
Geschafft! Das hat nun auch endlich geklappt und ich habe es verstanden. Vielen Dank für eure Hilfe!
Von ca. 22:00Uhr bis 04:00Uhr arbeitete ich bis zum Finish:
NGC6888_DRZ2X_PCC_DBE_HT_CT.jpg

Hier habe ich auch Drizzle 2x probiert, damit war das körnige Rauschen besser handelbar.
Wie gefällts? Konstruktive Kritik ist erwünscht, ich will es ja lernen ;)
Volle Auflösung ist hier: NGC6888

CS
Lucas
 
Hallo Lucas,
das hast Du fein hinbekommen. Mir gefällt die Aufnahme sehr gut. Wenn Du sie mit anderen Aufnahmen von NGC 6888 im Internet vergleichst, musst Du Dich nicht verstecken.
Viele Grüße
Hermann
 
Status
Es sind keine weiteren Antworten möglich.
Oben