Farbkorrektur bei Verwendung von Dual Narrowband (DNB) Filtern mit One Shot Colour (OSC) Kameras

lpaelke

Aktives Mitglied
Nachdem die Tage in einem anderen Thread jemand gefragt hatte, warum die Bilder von Nebeln mit dem Seestar immer so gelb-orange aussehen, bin ich ins Grübeln gekommen:

Sollte das Folgende schon allgemein (oder zumindest einzelnen) bekannt sein, und nur an mir vorbei gegangen sein, dann wäre ich für entsprechende Hinweise und Links dankbar. Ich habe dazu nichts gefunden, vielleicht war es in den Google Ergebnissen aber einfach zu tief verbuddelt.
Und wenn ich einen massiven Gedankenfehler gemacht habe, dann klärt mich bitte auf. Es erscheint mir im Nachhinein zu einfach und offensichtlich.
Wie dem auch sei:

Ein Problem bei der Nutzung von DNB-Filtern mit OSC-Kameras ist, dass die Farbfilter der Bayer-Matrix üblicherweise nicht nur das Licht im jeweiligen roten (r), grünen (g) oder blauen (b) Spektralbereich durchlassen, sondern auch andere Farben. (Warum eigentlich? Für Mono-Kameras gibt es doch Filter, die wirklich farbrein sind.)
Folglich wird das rote Ha-Licht auch von den g und b Pixeln registriert, und da blau/grüne Oiii-Licht auch von den r Pixeln.

Nun habe ich überlegt, ob man das nicht zurück rechnen kann, und bin darauf gekommen, dass es eigentlich sogar ganz einfach geht.

Also, die jeweiligen Pixel registrieren folgende Signale:
r = H * rH + O * rO
g = H * gH + O * gO
b = H * bH + O * bO
wobei H die Intensität des Ha-Signals ist und rH die Quanteneffizienz des roten Pixels bei der Wellenlänge von Ha, O die Intensität des Oiii-Signals und rO die Quanteneffizienz des roten Pixels für die Oiii-Wellenlänge. Analog natürlich auch gH, gO, bH und bO.

Wenn man jetzt die Gleichungen für r und g bzw. für r und b kombiniert, hat man jeweils 2 Gleichungen mit 2 Unbekannten, die einfach nach den ursprünglichen Signalstärken H und O zu lösen sind:

Für r und g:
H = ( r * gO - g * rO ) / ( gO * rH - gH * rO )
O = ( g * rH - r * gH ) / ( gO * rH - gH * rO )

Bzw. für r und b:
H = ( r * bO - b * rO ) / ( bO * rH - bH * rO )
O = ( b * rH - r * bH ) / ( bO * rH - bH * rO )

Weil ich zuletzt Aufnahmen mit dem Seestar S50 bearbeitet habe, habe ich es gleich damit ausprobiert. (Wobei das ganze mit einem wirklich schmalbandigen DNB-Filter vermutlich deutlich besser funktionieren sollte.) Für den dort verbauten IMX462-Sensor habe ich aus dem Datenblatt folgende Werte für die Wellenlängen von Ha: 656 nm bzw. Oiii: 501 nm grob abgelesen:
rH = 0,85
gH = 0,25
bH = 0,12

rO = 0,04
gO = 0,78
bO = 0,42

Das ganze dann bei PixInsight in Pixelmath eingegeben.

Dabei traten 2 Probleme auf (vermutlich auch, weil der DNB-Filter des Seestar sehr breit ist + das übliche Rauschen):
Zum Einen gingen ein paar Pixel in die Sättigung. Dies kann passieren, weil der Nenner kleiner als 1 ist. Da es aber ja nur auf die relativen Werte ankommt (man stretcht ja sowieso noch), kann man den Nenner auch einfach weglassen.
Zum Anderen gingen einige Pixel auf 0. Um das zu verhindern, könnte man einen Sockelbetrag addieren. Wie man das am besten macht (ohne die Daten zu verfälschen) muss ich mir noch überlegen, bzw. bin für Vorschläge offen.

Insgesamt scheint das ganze aber zu funktionieren.

Ich bin gespannt auf eure Kommentare.

CS, Lutz
 
Ich habe noch ein bisschen gerechnet: Wenn beim Seestar das Ha-Signal und das Oiii-Signal gleich groß sind, dann stammen beim roten Pixel knapp 5% des registrierten Lichts vom Oiii, bei den grünen und blauen Pixel aber jeweils ca. 26% vom Ha.
Wenn das Ha-Signal ca. 3 mal so groß ist wie das Oiii-Signal, dann registrieren die grünen und blauen Pixel jeweils gleich viel Licht von Ha und von Oiii.

Für meine astromodifizierte Canon EOS 200D habe ich leider kein Spektrum gefunden. (Wenn da jemand was hat, immer her damit.)

Für eine EOS 350D sieht es etwas besser aus: Wenn beide Signale gleich groß sind, stammen bei den roten Pixeln nur ca. 1% vom Oiii, bei den grünen Pixeln aber wieder knapp 26% von Ha und bei den blauen Pixeln 8%. Die Daten aus den blauen Pixeln sind in dieser Hinsicht also besser. (Dummerweise hat man von den grünen Pixeln ja aufgrund der doppelten Anzahl i.d.R. mehr Signal.)

Von der EOS 40Da habe ich auch ein Spektrum gefunden. Da erhalten die roten Pixel augenscheinlich quasi reines Ha Signal und die grünen fast reines Oiii. Bei den blauen Pixeln sind es dann wieder ca. 15% Ha Signal bei gleicher Intensität von Ha und Oiii. Da sollte man sich wohl überlegen, ob man die blauen Pixel einfach weg lässt.

CS, Lutz
 
Hi Lutz,

ich hab's jetzt nicht komplett durchdacht, aber wirkt für mich schlüssig. ;)

...
Wenn man jetzt die Gleichungen für r und g bzw. für r und b kombiniert, hat man jeweils 2 Gleichungen mit 2 Unbekannten, die einfach nach den ursprünglichen Signalstärken H und O zu lösen sind:
...
Man müsste doch auch zu einer Gesamtgleichung von H und O kommen bei denen jeweils nur noch r, g und b vorkommen.

Aber man kann auch einfach in der EBV zB ein Color Chanel Calibration Tool nehmen und die Farben so anpassen, dass sie natürlich wirken. Dabei im Histogramm schauen, dass die Farb Peaks übereinander zu liegen kommen.
MM reicht das, da wir ja sowieso nicht wissenschaftlich arbeiten und genaue Intensitäten der jeweiligen Linien messen.

Oder einfach auf den Hintergrund neutralisieren.

Oder Astrometric Color Calibration machen.

Oder, oder ...

Gruß
Peter

PS: Das haben bestimmt auch schon andere Leute berechnet. Hast du mal recherchiert?
 
Zuletzt bearbeitet:
Man müsste doch auch zu einer Gesamtgleichung von H und O kommen bei denen jeweils nur noch r, g und b vorkommen.
Da man ja nur 2 Variablen sucht, wären die dann überbestimmt. Man sollte aus beiden Farbkombinationen jeweils die gleiche Lösung raus bekommen. Ich habe die auch mal verglichen, die Unterschiede sind tatsächlich minimal. Man jeweils die beiden Ha (bzw. Oiii) Bilder, die man aus der rg und rb Kombination erhält anschließend natürlich kombinieren, um das Gesamtrauschen zu verringern.

Wenn man ein 3-Bandfilter hätte, dann könnte man tatsächlich mit den Infos aus r, g und b auch die Ursprungsintensität von den 3 Wellenlängen berechnen (wenn die spektrale Empfindlichkeit der OSC-Kamera für die gesuchten Wellenlängen unterschiedlich genug ist). Ist dann halt ein lineares Gleichungssystem aus 3 Gleichungen mit 3 Unbekannten.
Aber man kann auch einfach in der EBV zB ein Color Chanel Calibration Tool nehmen und die Farben so anpassen, dass sie natürlich wirken. Dabei im Histogramm schauen, dass die Farb Peaks übereinander zu liegen kommen.
MM reicht das, da wir ja sowieso nicht wissenschaftlich arbeiten und genaue Intensitäten der jeweiligen Linien messen.

Oder einfach auf den Hintergrund neutralisieren.

Oder Astrometric Color Calibration machen.

Oder, oder ...
Ich möchte meine Bilder ja auch gar nicht wissenschaftlich auswerten, aber man hat halt bei der "Mischung" für das Endbild aus den einzelne Farbkanälen doch bessere Möglichkeiten, wenn man neben dem eh fast reinen Ha-Bild auch ein möglichst reines Oiii-Bild hat. Bei vielen OSC-Kameras erhält man halt wie gesagt auch an Stellen, wo in echt gar kein Oiii ist, ein recht großes Ha-Signal im Oiii-Bild.

Am ehesten könnte ich mir noch vorstellen, dass sowas bei der Spectrophotometric Color Calibration gemacht wird, da das das einzige Tool ist, bei dem man seine Kamera angeben muss. Und ohne die spektrale Empfindlichkeit der Kamera zu kennen, kann man den Effekt nicht raus rechnen.
PS: Das haben bestimmt auch schon andere Leute berechnet. Hast du mal recherchiert?
Ich kann mir auch nicht wirklich vorstellen, dass das vor mir noch keiner gemacht hat. Dafür ist das Problem eigentlich zu offensichtlich und die Lösung zu einfach.
Aber beim Googeln habe ich halt nichts gefunden.
(Eine evtl. mögliche Erklärung hätte ich allerdings schon: Die echten Cracks nehmen entweder Mono-Kameras und haben damit das Problem nicht. Oder teure DSLRs wie die EOS 40Da, die das Problem für den Ha-Kanal nicht haben und für den Oiii-Kanal auch nicht sonderlich ausgeprägt,im Fall der 40Da eigentlich auch nur in b. Interessanterweise sind die Bayer-Filter bei den teuren OSC-Astrokameras ähnlich breitbandig wie bei den preiswerteren.)

Also, wenn jemand Infos dazu hat, bitte setzt mich auf die richtige Fährte.

Ich gucke mal in meinen alten Aufnahmen, da müsste ich ein paar wenige haben, wo ich Deep-Sky Objekte mit der ZWO ASI678MC aufgenommen habe. Für die Kamera habe ich ein Spektrum, so dass ich die Bilder entsprechend bearbeiten kann.
Die meisten Bilder mit passenden Motiven habe ich mit der astromodifizierten EOS 200D aufgenommen, und für die finde ich kein Spektrum.

CS, Lutz
 
Da war jemand anders (jlecomte auf CN a.k.a Dark Sky Geek auf YT) schneller als ich, ich bin bei Cloudy Nights fündig geworden.
Aber dennoch seltsam, dass die Technik sich nicht als Standard durchgesetzt hat. Wenn man des Spektrum der Kamera hat, ist es doch schnell in Pixelmath eingegeben. Und die Instanzen mit den jeweiligen Gleichungen kann man ja für die spätere Nutzung abspeichern. Und jemand, der sich damit auskennt, könnte da sicher auch schnell ein Skript draus machen. (Mal schauen, wie kompliziert das ist, vielleicht mache ich das bei Gelegenheit mal.)

CS, Lutz
 
Oben