L-Extreme pre-processing in Pixinsight

Status
Es sind keine weiteren Antworten möglich.

Berlinsky

Aktives Mitglied
Liebe Astro-Gemeinde,

der Optolong L-Extreme ist sehr weit verbreitet und es gibt inzwischen umfangreiche Tutorials, wie die Daten nach dem Stacking weiter verarbeitet werden. Häufig wird dann im RGB Bild Ha aus Rot und OIII aus einer Kombination von Grün und Blau extrahiert. Dann erfolgt ein re-mapping der Farben, z.B. unter Einbeziehung eines zusätzlichen synthetischen Farbkanals. Nun zur eigentlichen Frage: gibt es in PI einen Workflow der es erlaubt bereits vor dem Stacking Ha und OIII aus den Rohdaten zu gewinnen? Ich denke hier an ein Verfahren, das beim De-Bayering bereits das Transmissionsspektrum eines duo-narrowband Filters berücksichtigt (Split_CFA reicht nicht aus)?

Dankeschön für Eure Hinweise.

Grüße und CS - Oliver
 
Hallo Oliver,

rein technisch geht das über CFA split (habe ich auch schon ausprobiert). Du bekommst dann quasi für jedes Pixel ein eigenes Bild. Also 2x grün 1xblau 1xrot. Du kannst diese dann separat stacken (alle grünen natürlich zusammen) und ggf. ein 2fach drizzle um wieder auf die ursprüngliche (Bild)auflösung zu kommen (genau das passiert z Bsp in Softwares wie Siril wenn man anhakt extract Ha oder extract OIII).

Was meinst du mit der Berücksichtigung der Transmission? Die Gewichtung der Farbkanäle ist danach deine Sache. Eine Methode zur Farbkalibrierung gibt es m.W.n bei Schmalbandaufnahmen nicht. Ich mache es einfach so, dass ich den Hintergrund auf neutral grau einstelle (Background Neutralization) somit sind die Farben auch ausgeglichen.

Nach zwei Jahren mit Duo Filtern habe ich erst einmal den Fall gehabt wo ich das so gemacht habe. Was spricht dagegen das Bild einfach ganz normal als RGB zu entwickeln? Du bekommst dann ein RGB Farbbild und musst nicht künstlich irgendwas machen, remappen, Farbgewichtung etc.. Damit bekommst du ein sehr ausgewogenes Bi-Color Bild wenn man so will. Was ich so an Re-mapping sehe sieht meistens ziemlich gequält aus. Das eher als Meinung, nicht als Antwort auf deine Frage :)

CS Frank
 
Hallo Frank,

erst einmal herzlichen Dank für Deine ausführliche Antwort zu dem Thema. Was das Prozessieren von duo-narrowband Daten als konventionelles RGB Bild angeht, da stimme ich Dir ganz zu. Ohne zusätzlichen Aufwand kommt man zu respektable Ergebnissen, wobei die Sternfarben wahrscheinlich das größte Problem sind und durch zusätzliche Aufnahmen ohne Filter ausgetauscht werden müssen.
Nun aber noch einmal zur Extraktion von Ha und OIII aus z.B. dem L-Extreme. Wenn ich mir die Transmissionskurve eines roten Bayer-Filers ansehe, so kann man schnell schlußfolgern, dass das Signal im Rotkanal auch nur von Ha kommt, da der rote Filter bei OIII fast alles unterdrückt. Leider ist das umgekehrt für das OIII Signal nicht der Fall, denn der grüne Filter zeigt auch bei der Ha Wellenlänge üblicherweise noch eine Transmission von häufig über 10%. Wenn ich nun nur das blaue Signal verwende um OIII zu generieren, dann ist das SNR häufig schlecht. Verwende ich eine Kombination von Grün und Blau, so kommt über den grünen Filter auch noch Ha mit in den OIII Kanal. Für mich stellt sich nun die Frage, ob man durch Berücksichtigung der Transmissionseigenschaften von Bayer-Matrix und duo-NB Filter ein Vorgehen definieren kann, um ein besseres OIII Signal zu erhalten, das kein Rest-Ha mehr beinhaltet. Möglicherweise ist das nicht möglich oder aber der Unterschied ist gering. In diesem Zusammenhang würde mich auch interessieren, wie der Astropixelprozessor vorgeht, um Ha und OIII zu extrahieren.

Viele Grüße und CS - Oliver
 
Hallo Oliver,

ah jetzt verstehe ich. Mein Kollege Josef vom Capella Team hat das mal untersucht und die "Übersprechung" der Kanäle als vernachlässigbar gering erachtet. Ob man das, so wie du es im Kopf hast, noch verbessern kann, bezweifle ich. Dazu ist das Konstrukt Farbkamera meines Erachtens nicht präzise genug (RGB Filter haben ja soweit ich weiß immer eine leichte Überlagerung).
In APP läuft die Extraktion der Kanäle so wie ich es oben beschreiben habe, das hat meine Nachfrage direkt beim Entwickler ergeben. Lediglich beim hochsampeln auf die ursprüngliche Größe läuft es angeblich in APP anders. Der Entwickler hat es dann versucht mir zu erklären worauf ich geantwortet habe, dass es mir nicht klar geworden ist. Darauf kam die Antwort: Ich habe es klar erklärt :) Fand ich etwas dünn als Antwort und ein Geschmäckle hat es auch.

Also meine Einschätzung ist die, da tut sich nicht viel. Irgendwo muss ja auch die Grenze gegenüber einer Mono Kamera noch bestehen.

Aber vielleicht wissen andere da mehr.

CS Frank
 
Hallo Frank,

vielen Dank für die zusätzlichen Information zum Übersprechen und insbesondere auch zu APP, das ist sehr hilfreich. Wahrscheinlich lohnt es sich nicht, in dieses Detail mehr Zeit zu investieren und falls wirklich saubere Schmalbanddaten benötigt werden führt wohl an Mono nichts vorbei.

Viele Grüße - Oliver
 
Was spricht dagegen das Bild einfach ganz normal als RGB zu entwickeln? Du bekommst dann ein RGB Farbbild und musst nicht künstlich irgendwas machen, remappen, Farbgewichtung etc.. Damit bekommst du ein sehr ausgewogenes Bi-Color Bild wenn man so will. Was ich so an Re-mapping sehe sieht meistens ziemlich gequält aus.
Guten Morgen Frank und Oliver,

ich bin ja eher Monokameras gewohnt und mein Workflow ist auf die separate, sternlose Bearbeitung der in APP gestackten Kanäle mit anschließender Rekombination in PS ausgerichtet. Aber ich habe hin und wieder auch OSC Dualbanddaten von Kollegen erhalten, zuletzt von Oliver. Zwar sind reine Signale von Mono-Sensoren mit Schmalbandfiltern im Vergleich deutlich besser. Aber besonders bei schwachem OIII oder übermächtigem Ha Signal halte ich es auch bei OSC Aufnahmen schon für einen Vorteil, die Möglichkeit zu haben, die Kanäle vor der Kombination zum RGB in einem Programm wie PS getrennt bearbeiten zu können. Man kann ja nicht nur die Gewichtung und Mischung in den RGB Kanälen steuern, sondern auch Kontrast, Rauschen, Helligkeitsverteilung und andere Parameter in den Einzelkanälen anpassen. Auch kann das OIII in einer separaten Bearbeitung bei Bedarf viel weiter und differenzierter gestreckt werden, als in einem fertigen, sternlosen Bicolor RGB. In einem Workflow mit starnet++ können auch "Pseudo-RGB" Sternfarben recht einfach über eine entsprechende HOO-Gewichtung generiert und später eingeblendet werden.

Wie auch immer der Entwickler von APP bei seinen Presets für die Extraktion der Schmalbandkanäle vorgeht, die Ergebnisse, die ich bisher erhalten habe, sind gut. Und es geht schnell und einfach.

Viele Grüße und CS
Peter
 
Verwende ich eine Kombination von Grün und Blau, so kommt über den grünen Filter auch noch Ha mit in den OIII Kanal. Für mich stellt sich nun die Frage, ob man durch Berücksichtigung der Transmissionseigenschaften von Bayer-Matrix und duo-NB Filter ein Vorgehen definieren kann, um ein besseres OIII Signal zu erhalten, das kein Rest-Ha mehr beinhaltet. Möglicherweise ist das nicht möglich oder aber der Unterschied ist gering. In diesem Zusammenhang würde mich auch interessieren, wie der Astropixelprozessor vorgeht, um Ha und OIII zu extrahieren.

Hi Oliver,
Ich werfe aus der Kaffeepause einfach noch eine Schippe Klugschiss 'drauf, denn so schwer ist das vom Konzept her nicht.

Nehmen wir mal einfach einen den Bayer Sensor einer ASI6200 als Beispiel:

post-160007-0-45179200-1574902967.png


Davon schauen wir uns (in etwa) die jeweilige Quanteneffizienz des geflilterten Pixels an der entsprechenden Stelle des Spektrums ab:

Fuer Rot: QER_oIII = 0.05 ; QER_ha = 0.4
Fuer Gruen: QEG_oIII = 0.35 ; QEG_ha = 0.05
Fuer Blau: QEB_oIII = 0.2

Dein Gedanke ist schon ganz richtig.
Wenn an der Stelle, die dieses Pixel am Nachthimmel abbildet sowohl OIII wie auch Ha vorhanden sind, dann setzt sich das Gesamtsignal von jedem Pixel so zusammen:

R = QER_oIII * OIII + QER_ha * Ha (1)
G = QEG_oIII * OIII + QEG_ha * Ha (2)
B = QEB_oIII * OIII (3)

Mathematisch gesehen ist deine Frage einfach diese:
Kann man dieses Gleichungssystem umgekehrt nach Ha und OIII aufloesen?
Na klar kann man das, machen wir einfach mal mit der Hand; (1) in Gleichung (2) geworfen und nach Sauerstoff aufgeloest:

OIII = ( R - QER_ha / QEG_ha *G) / ( QER_oIII - QER_ha/QEG_ha)

und in (1) eingesetzt und nach Ha aufgeloest:

Ha = R / QER_ha - (R - QER_ha/QEG_ha G) / (1-QER_ha/QEG_ha/QER_oIII )

und (wenn Ich mich jetzt auf die Schnelle nicht vertan habe) die konkreten QE-Werte eingesetzt:

OIII = ( 8*G - R ) / 7.95

Ha = R / 0.4 - (8G - R) / 159

Zu beachten waere, dass man vorher noch das gruene Signal halbieren muss, weil 2x so viele gruene Pixel wie rote auf der Matrix sind. Und das koennte man i.d.T. in Pixinsight in die "pixel math" direkt eingeben und sich "synthetische" Ha und OIII Bilder erzeugen.
Wenn Du's noch praeziser haben willst, dann kannst Du die jeweilige Quanteneffizienz noch uber die jeweilige FWHM Filterbreite des Optolong an Ha und OIII korregieren.

APP macht's dann wahrscheinlich noch etwas eleganter und nimmt auch den blauen Kanal mit hinein und loest dann diese Matrixgleichung fuer Ha und OIII auf:

R .............................. Ha
G = QE_Matrix * OIII
B

Da wird die 3x2 QE_Matrix invertiert und damit dann das RGB Signal multipliziert und dass duerfte es eigentlich gewesen sein.
Hoert sich jetzt superkompliziert an (und bei Mathe bekommt so mancher ja sofort einen Hautausschlag ... ;) ), ist aber verglichen zu einigen anderen Prozessierungsklimmzuegen (Dekonvolution oder sowas) eigentlich wirklich ueberschaubar.
Gruss und CS
 
Auch kann das OIII in einer separaten Bearbeitung bei Bedarf viel weiter und differenzierter gestreckt werden, als in einem fertigen, sternlosen Bicolor RGB. In einem Workflow mit starnet++ können auch "Pseudo-RGB" Sternfarben recht einfach über eine entsprechende HOO-Gewichtung generiert und später eingeblendet werden.
Hallo Peter,

im muss das unbedingt einmal ausprobieren, also ein bereits als RGB Bild prozessiertes Objekt noch einmal getrennt nach Kanälen bearbeiten, um ein Gefühl für die möglichen Verbesserungen zu bekommen. Ich bin übrigens in PI bei der PCC (photometric color calibration) weiter gekommen. Mit einem reinen HOO Bild kommt PI nicht gut zu zurecht. Wendet man jedoch PCC auf ein H(syG)O an, wobei syG=synthetischer Grünkanal, dann ergeben sich deutlich bessere Sternfarben.

APP macht's dann wahrscheinlich noch etwas eleganter und nimmt auch den blauen Kanal mit hinein und loest dann diese Matrixgleichung fuer Ha und OIII auf:
Hallo Defunct,

Danke für den kurzen Ausflug in die lineare Algebra. Es wundert mich, dass ich kein Script oder Workflow für PI gefunden habe, der genau das berücksichtigt. Hast Du so etwas schon einmal gesehen oder sogar einen Link? Mich würde interessieren, wie groß die Unterschiede dann sind.

Viele Grüße und CS - Oliver
 
Danke für den kurzen Ausflug in die lineare Algebra. Es wundert mich, dass ich kein Script oder Workflow für PI gefunden habe, der genau das berücksichtigt. Hast Du so etwas schon einmal gesehen oder sogar einen Link? Mich würde interessieren, wie groß die Unterschiede dann sind.

Also ich hab' jetzt nicht herumgegoogelt (weil bin Mono und daher fuer mich nicht so relevant) und wie gesagt, dass kannst Du in PI ja bereits mit einfacher pixel math selbst erledigen.

Und wie gross der Fehler ist, naja, das kommt natuerlich schwer darauf an bei welchem Objekt und wo genau da drin, denn das ist ja vom jeweiligen lokalen OIII/Ha Verhaeltnis abhaengig.
Und wenn man "richtige" Schmalband-Bilder hat, dann kann man den Effekt - ist ja noch einfacher - natuerlich auch leicht simulieren. Fuer die oben genannte ASI-Kamera saehe das in etwa so aus:

*Kramt in seinen Bildern*

Hier ein "richtiges" Ha (Postprocessing ist bei alle Bildern auf das Minimum beschraenkt, daher das ein oder andere Bildartefakt)

realHa.jpg


Hier das "richtige" OIII
realOIII.jpg


Hier das "falsche" OIII, wenn Du einfach bei der simulierten Farbkamera "OIII = Gruen" gesetzt haettest und daher Ha kontaminiert bist
synthOIII.jpg


Man sieht's z.B. im Hexenbesen schon recht deutlich, da wird mit der Brachialmethode "OIII" mehrheitlich von Ha gekapert.

Macht man daraus ein (Ha, OIII, OIII) Farbbild, dann sieht das richtige Bild halt so aus:

Image24.jpg


Und das "falsche" Farbbild dann halt so:

Image26.jpg


Sieht man den Unterschied?
Na sicher sieht man den, schau halt mal genau hin. Aber welche Relevanz Du dem Farbfehler beimisst, dass wiederum ueberlasse Ich dir (und beantwortet eventuell deine Frage, warum es da so wenige Skripte gibt) ... ;)
 
Status
Es sind keine weiteren Antworten möglich.
Oben