Stackingmethoden (Median oder Average) ?

chriskosmos

Mitglied
Hallo, ich hoffe ich werde für die Frage nicht gleich gesteinigt, aber aktuell erstelle ich DARK-Serien und BIAS.
Für jeden Wert wurden 100 BIAS und 60 DARKS angelegt.

Diese habe ich dann gestackt. Bei der Stackingmethode habe ich jeweils Average und Median gewählt.
Im fertigen Master-BIAS / Master-DARK sind die Unterschiede zwischen den beiden Methoden deutlich sichtbar.

Jetzt die Frage: Mit welcher Methode sollte man die Bilder stacken?


Viele Grüße
Chris
 

Anhänge

noideaforaname

Mitglied
Zieh Mal das MasterBias von den einzelnen Darks ab und stacked dann, da du ja in jedem Dark noch das Grundrauschen drin hast.

Ich würde die Stacking Methode von der Anzahl der aufgenommen Frames abhängig machen. Bei wenigen <10 Median und >10 average.

Hab im PI und SIRIL Forum gelesen, dass dieses so (oder so ähnlich, sitze gerade im Zug 😂) empfohlen wird. Meine Ergebnisse decken sich aber mit der Aussage.
 

dkracht

Mitglied
Hey Noide...
du ja in jedem Dark noch das Grundrauschen drin hast.
Was meinst Du mit "Grundrauschen"?
Ich kenne: Ausleserauschen, thermisches Rauschen des Sensors und Dunkelstromrauschen.
Ich habe auch schon den Begriff "Kamera-Rauschen" und "Photonen-Rauschen" gehört.
Was ist das eigentlich mit diesen verschiedenen Rauscharten los? Oder haben wir da teilweise Synonyme?
Clear Skies
Dietrich
 

noideaforaname

Mitglied
Das Grundrauschen ist für mich das Rauschen des Sensors unabhängig von der Belichtungszeit. Praktisch das Signal, welches in den BIAS vorliegt.

Will ja nichts neu erfinden, bin aber auch erschlagen worden von der ganzen Thematik 😂
 

andreasmax

Mitglied
BIAS und DARKS: avarage
die info hab ich zwar von pixinsight her, dürfte jedoch im allgemeinen stimmen.
zudem bei den BIAS: ich mach normal das MasterBias aus mind. 200 aufnahmen. geht ja auch ganz schnell und das kann ich zuhause machen. das BIAS habe ich gespeichert und nutze das immer. auch habe ich BIAS für meine dslr jeweils für die ISOs 400/800/1600 erstellt.
lg
andreas
 

dkracht

Mitglied
Hey Noidea,
welches "Signal" hat man eigentlich im Bias?
Bei Belichtungszeit = Null (oder Minimum) kommt ja vom Sensor nix, was bleibt ist "etwas" von der Auslese-Elektronik.
Oder mache ich da einen Denkfehler?
Ist das dann tatsächlich hier gemeint, wenn Du von "Grundrauschen" sprichst?
Das wäre dann ja kein ausschließlich stochastisches Rauschen, sondern hätte auch ein von Frame zu Frame gleichbleibendes Signal = Muster.
Hat der von vielen verwendete Begriff "Fixed Noise Pattern" etwas damit zu tun?
Clear Skies
Dietrich
 

andreasmax

Mitglied
das BIAS signal bezieht sich tatsächlich nur auf den chip und die ausleseelektronik. ist zwar nicht viel, aber entscheidend. und belichtungszeit 0 erhalte ich mit meiner DSLR auch nicht, da wären 1/4000. und das bei abgedunkelter kamera. das könnte man quasi als grundrauschen werten.
 

dkracht

Mitglied
Wenn es also das Ausleserauschen/Auslesesignal ist (engl. read noise), warum dafür ein neues Wort erfinden?
Clear Skies
Dietrich
 

noideaforaname

Mitglied
Wenn es also das Ausleserauschen/Auslesesignal ist (engl. read noise), warum dafür ein neues Wort erfinden?
Clear Skies
Dietrich
Ich weiß nicht, ob ich da was neu erfunden habe oder ich das irgendwo anders aufgeschnappt habe.

Für mich ist Grundrauschen halt am einfachsten zu verstehen. Sprich das Rauschen des Sensors, welches eh da ist (bei mir bei einer Verschlusszeit von 1/6000).
 

Michael_Haardt

Mitglied
Ich versuche mal, das zu ordnen:

Ausleserauschen: Von der Kamera erzeugte Variation des ausgelesenen Signals, die immer vorkommt. Darin ist ein fester Anteil und ein von Temperatur und Belichtungszeit abhängiger Anteil enthalten
Bias: Der feste Anteil des Ausleserauschens (fixed pattern noise)
Thermisches Rauschen: Temperaturabhängigkeit des Ausleserauschens
Dunkelstromrauschen: Zeitabhängigkeit des Ausleserauschens
Photonen-Rauschen: Fluktuation im Photonenstrom, die Standardabweichung ist die Wurzel der Photonenzahl (und ebenso der Elektronen) Das hat nichts mit der Kamera zu tun.
Pixel dependent pattern noise: Auswirkung der individuellen Pixeleffizienz, die Licht mehr oder weniger gut umsetzt, verursacht durch die Optik inkl. Mikrolinsen, aber auch durch die Pixel selbst. Das wird mit Flats korrigiert.

Der Zusammenhang von Temperatur und Belichtungszeit erschwert die Modellierung. Man behilft sich damit, dass man Bibliotheken von Darks für verschiedene Temperaturen anlegt. Da Bias von den Darks abgezogen wird, kann man das Ergebnis mit der Belichtungszeit skalieren. Hier liegt ein Vorteil einer Kühlung: Man senkt das thermische Rauschen und hat immer die gleiche Temperatur, d.h. man kommt mit einem Masterdark aus. Wenn man Darks am gleichen Abend macht, kann man sich zwar theoretisch die Dark-Bibliothek und das Bias sparen, aber wenn sich die Temperatur des Sensors ändert, steht man dumm da.

Letztlich sind das alles Versuche, mit den Eigenheiten von Sensoren klarzukommen. Das Ergebnis ist eine Verbesserung, aber nie perfekt.

Ich bin gestern auf ein schönes Buch gestoßen und der bei Google lesbare Teil erklärt die Grundlagen so nett, dass ich es kaufen werde:


Wenn man sich mit der Sache etwas beschäftigt, wird alles viel klarer, wenn man konsequent in Elektronen bzw. in Elektronen/Sekunde statt in DN/ADU rechnet. Das ist im Amateurbereich nicht üblich, wird aber bei Hubble so gemacht. Es erleichtert die Abschätzung des Rauschens und die Kombination verschiedener Bilder enorm. Ich meine, dass man hier von den Profis lernen sollte.

Michael
 

dkracht

Mitglied
Lieber Michael,
Deine Zusammenfassung hat in mir mehr Fragezeichen aufgetan als erledigt.
Ich hatte eigentlich gedacht, dass nicht alles mit dem Ausleserauschen zusammenhängt.
Z.B. das Dunkelstromrauschen, dachte ich ist das Rauschen im Dunkelstromsignal, aber das scheint ja alles sehr in der Diskussion zu sein.
Nichts für ungut,
Dietrich
 

Hoschie

Mitglied
Hallo Chris,
also zum Thema der Stackingmethoden -

ich finde die Wahl zwischen reinem Median und reinem Average ehrlichgesagt ein wenig beschränkt. Da kann man noch viel mehr machen, zum Beispiel DSS bietet auch fortgeschrittene Stackingmethoden an. Der Median wurde weiter oben zum Beispiel nicht grundsätzlich empfohlen, hat aber den Vorteil dass er - anders als der Mittelwert - robust gegen Ausreisser (Starlink, Flugzeuge, kosmische Strahlung) ist. Deswegen muss man aber nicht auf den Mittelwert verzichten, sondern kann Perzentile clippen - also die oberen und unteren soundsoviel Pixelwerte beim Mitteln vernachlässigen. Oder (besser) das Kappa-Sigma Clipping, bei dem die Ausreisser über die Anpassung an eine Statistik rausgeworfen werden. Mit der Anzahl deiner Subframes zu empfehlen! U.v.m.

CS Hoschie
 

andreasmax

Mitglied
zum thema zurück: meine erfahrungen beziehen sich ausschließlich auf Pixinsight, nehme DSS oder Fitswork nicht her.
und: bei meiner letzten aufnahme (40x5min) von NGC2170 hatte ich irre satellitenspuren auf den aufnahmen, diese konnten beim schnellen stacken in pixinsight nichgt herausgerechnet werden! hatte alles versucht. sicher 2 stunden probiert , ca. 10 versuche gemacht. keine chance.
ich habe dann in pixinsight die einzelnen aufnahmen mit WEIGHTING angeglichen, über local normalization gestackt und weg waren sie. gestackt wurde dann mit Linear Fit, da ca. 40 aufnahmen.
 

Quasaro

Mitglied
Hallo,

beim Sracking-Prozess via DSS und der Auswahl "Kappa-Sigma-Clipping" mit Kappa = 2.00 und Anzahl der Wiederholungen = 5 als Standardeinstellungen wurden die Satellitenspuren etc. nach meiner Erfahrung immer sauber entfernt ohne irgendwelche Zwischenschritte, da ist DSS, wie ich finde, sehr gut.

Gruß und CS
Stefan
 

Quasaro

Mitglied
Das ist ja echt heftig. Mit so vielen Satellitenspuren und dgl. hatte ich zugegebenermaßen noch nicht zu kämpfen gehabt, Wahnsinno_O.

Gruß
Stefan
 

Hoschie

Mitglied
Hallo Markus, ich mir ebenfalls (die alte Sache mit der Abdeckung?).
beim Sracking-Prozess via DSS und der Auswahl "Kappa-Sigma-Clipping" mit Kappa = 2.00 und Anzahl der Wiederholungen = 5 als Standardeinstellungen wurden die Satellitenspuren etc. nach meiner Erfahrung immer sauber entfernt ohne irgendwelche Zwischenschritte, da ist DSS, wie ich finde, sehr gut.
moin zusammen,
meine Erfahrung mit PI ist, dass ich dort mit ~20 Subframes durchaus noch Spuren drin habe, je nachdem wie weit ich stretche (linear Fit clipping). Problematisch sind da eher Flugzeugspuren, die fetter sind und starke Kondensstreifen entwickeln. Im Zweifel hilft dann nur, an den Parametern zu drehen (Sigma runter), oder einen anderen Algorithmus zu nehmen. Deshalb versuche ich, möglichst deutlich über die 20 zu kommen. Je na Belichtungszeit nicht ganz trivial.

CS Hoschie
 
Oben