"Katzenkratz" Galaxie ein "fail" (NGC 5906)

Status
Es sind keine weiteren Antworten möglich.

NanteAstrophotography_274

Aktives Mitglied
Halöle, Nante hier... Gestern bzw heute, um genau zu sein 3.7.2020 23.45 / 3.30 wurde die Katzenkratz Galaxie, aka NGC 5906 Fotografiert.
Ein Einzelbild mit 90s Belichtungszeit und ISO 12800 glaub ich
rawbild.PNG



Ja, eigentlich ganz gut?
Das war dann das gestacked (1h45min insgesamt), und Darks, mit gleicher iso Belichtungszeit, und deckel vor Kamera. waren 19 natürlich gleich nach den Lights, wegen der Ausentemperatur.

stackedbild.PNG


Dann Pixinsight geöffnet, und das gestackte Bild. Dannach die Kannäle angepasst, Channel Extraction und Linear Fit, und noch Channel Combination. das Bild sah dann so aus:
pixinsight kanal.PNG

Dannach, erstmal gestrecht, damit man was erkennt.

pix streched.PNG


Vignettierung, rechnet EIGENTLICH, der Automatic Background Extractor raus.. Das war das Ergebniss…. mit Subtraction!
schlimm.PNG

Ja...… ziemlich schlecht sieht das aus. Irgendwelche Schwarzen runde kreise??, was könnts sein? Dreck??, Jetzt hab ich angst, das der Sensor der DSLR dreckig ist.... letztens auf dem Hantelnebel, ist alles glatt, und für meine Verhältnisse sehr gut.. zumindestens sah es nicht so komisch aus wie das bild darüber!, Vielleicht wahren die Darks auch schlecht, das diese Flecke auf dem bild von den Darks kommen?, einaml diese Großen Schwarze Flecken, und einmal kleine schwarze kreise, neben der Galaxie.


Hantelnebel.jpg


so sah ein Dark aus, irgendwelche weiße Fleckchen? / Striche?
dark.PNG



gestrechedes Dark:
dark gestreched.PNG


Also, von meinen M27 und der NGC 5096, sind weiten entfernt... Irgentwas stimmt da nicht, beim Hantelnebel, hab ich mit 30s belichtet, irgendwas mit 300bilder, und NGC 5096 1,5min, hoher Iso, beim m27 sieht man nix beim strechen von Dreck, oder diesen Flecken......
Ist NGC 5096 vielleicht auch ein Schwieriges Objekt?, M51, hatte ich auch 90s aber eine niedrigere ISO und das war welten besser...

LG Nante :)
 
Hi Nante,

du brauchst noch Flats, die dir die Vignette und irgendwelche Krümel wieder rausrechnen können.
Der Klassiker ist, neben den Lights natürlich, Darks, Biasse und imho das wichtigste: Flats!
Verstehe ich das richtig, du stäkkst nicht in PI?
Da gibt es doch dieses nette Script BatchPreProcessing. Da gibst du deine Ls, Fs, Ds und Bs an, legst das Referenzframe fest, gibst den Ausgabeordner an und ab dafür. Das rödelt dann ne Weile vor sich hin und bastelt dir alles soweit zurecht, daß du nur noch stäkken mußt. Das geht dann mit ImageIntegration, aber den Part kennst du ja schon.

Achso, Background, mit DBE generell erstmal Tolerance auf 1,5, dann Sample Größe auf 30, dann Division auswählen und zunächst Replace Original und Delete "das Analysebild" (mir fällt der Begriff grad nicht ein) unchecked lassen, willst ja ggfs korrigieren. Oft genügen wenige Samples, manchmal schon 4, in jedem Quadranten eins, ein Stückweit von der Mitte. Wenn du zufrieden bist, Replace und Delete Häkchen setzen und ausführen.

DANN kommt erst die Sutraktion. Alles so lassen, nur eben Subtraction auswählen, Häkchenspiel wie oben.

DANN nochmal Division, ABER mit Tolerance jetzt auf 0,5!

Keine Subtr. mehr! Feddisch!

Guckmal in der Video-Tutorial-Sammlung von @frasax zum Thema DBE, da werden Sie geholfen! Er zeigt da ein paar echt coole Tricks der DBE ;)

Good luck und CS!!
Okke
 
Hallo Nante,

Dein Ergebnis nach ABE (5. Bild von oben) weist vertikale Linien auf. Da weder Linear Fit noch ABE solche Strukturen erzeugen, zeigt das ganz klar, dass bereits die Kalibrierung der light frames in die Hose gegangen ist.

Deshalb wäre als erstes zu untersuchen, ob das MasterDark nicht zu den light frames passt, oder ob falsche Einstellungen bei der Kalibrierung diese vertikalen Linien erzeugen.

Wie Okke schon schrieb, sind flat frames wichtig. Background Modelization (ABE oder DBE) kann in der Regel die Funktion der Flat Field Korrektur nicht erfüllen. Diese Prozesse sind in erster Linie geeignet zur Entfernung von Gradienten, die durch Lichtverschmutzung hervorgerufen wurden. Falls noch möglich (d. h. wenn die Kamera noch genau so am Teleskop sitzt wie bei der Aufnahme der light frames) sollten also flat frames nachgeholt werden. Für deren Kalibrierung braucht man zusätzlich noch bias frames oder flat darks.

Mit den passenden Kalibrierungsaufnahmen bzw. Einstellungen muss dann die Bildkalibrierung wiederholt werden.

Mich würde auch interessieren, wie Du zu der Integration (2. Bild von oben) gekommen bist. Wer PixInsight verwendet, sollte auf jeden Fall auch die Bildkalibrierung (an Color Filter Array (CFA-) Daten), das Debayern, das Ausrichten und die Integration in diesem Programm und nicht mit einem anderen durchführen.

Die Integration sollte man sich in PixInsight mit STF AutoStretch anschauen, wobei die Option 'Link RGB Channels' deaktiviert sein muss, solange noch keine Farbkalibrierung durchgeführt wurde. Die Anwendung von Linear Fit kann man sich sparen. Zur Farbkalibrierung ist Photometric Color Calibration gut geeignet.

Bernd
 
Hallo. Selbst M51, oder M27 hab ich so bearbeitet, wie kriegt man den dreck wieder vom Sensor weg, wenns überhaupt dreck is, kann man das nachschauen? Man kann ja ein weißes blatt papier nehmen, und Kamera auf AV iso 100 Blende 22 dann sieht man es, und ja habs gemacht da sind paar solche flecken drauf.... kann aber das Objektiv sein, ist dreckig, kann man das mit den Teleskop auch machen?,
 
Hallo Nante,


Das Thema Flats und wie diese erstellt werden hattest du doch bereits selbst einmal aufgebracht: https://forum.astronomie.de/threads/flats-darks.290510/#post-1481738

Flats und somit Bias/Flatdarks gehören zum Pflichtprogramm und helfen dir Abschattungen, kleine Verunreinigungen etc. aus deinen Bildern "heraus zu rechnen" Über den Nutzen von Darks bei einer DSLR scheiden sich die Geister aber auch hierzu gibt es viel Lektüre hier im Forum oder bei YouTube, Stichwort astrophotocologne.
Ich spare mir die Zeit für Darks aktuell noch und sammle lieber mehr Licht bzw. führe die Flats gewissenhaft aus.

Ich bin zwar auch nur Laie aber solch großflächige Schatten und Flecken wie sie in deinem Bild 5 zu sehen sind, kommen nicht von ein wenig Dreck oder Staub auf dem Sensor. Trotzdem kannst du dies prüfen, einfach deiner DSLR ohne Objektiv auf 30s Belichtungszeit stellen, auslösen und dir den nun freiliegenden Sensor anschauen. Sollte der Sensor Ursache für die Bildqualität sein, so müssten die Verunreinigungen deutlich zu sehen sein.

Solltest du dort Staub und oder Flecken sehen, kann ich nur zu den gängigen Sensorreinigungssets raten. Sets gibt es online schon für 10€-20€.

Gruß
Andreas
 
Ich mach mal ein Bild vom sensor
 
Also mit bloßen Auge seh ich da rein garnichts außer den sensor ?
IMG_20200706_161706.jpg
 
Sieht sauber aus. IMHO ist schlicht die Background-Extraction in die Hose gegangen.
Tipp: Fremdkörper auf dem Sensor bilden sich eher scharfkantig ab, weniger verschwommen.
 
also es sieht gut aus?, ist nix drauf... was soll das sonst sein?
 
weil:: wenn ich es in gimp mal strechte ist das nix.
Ich probiers mal ohne den Background Extractor.
 
naja. Ganz ok
Image05.jpg
 
Vignettierungen sind halt sehr stark, musste viel wegcroppen.
 
ja, ist mir klar, ich bin nur am zweifeln warum dieses bild so schlecht aussieht, und der m27, für meine Verhältnisse gut assieht, obwohls die gleichen Einstellungen sind
 
mir kommt grad was, kanns am Vollmond liegen?, das es irgendwie zuhell war?
 
Ich glaube Nebel, sind besser geeignet für mich :ROFLMAO:, Vielleicht auch ein Schwieriges Objekt, selbst mit 90s, keine Details auf ein Singleframe zu erkennen, auch bei SGP mit High strech… bei der Whirlpool sah man sofort die Spiral usw...
 
Nochmal Nante hast du Flats erstellt bei deinem hier gezeigten Versuch?
Lautet die Antwort nein, dann musst du da ansetzen. Ohne Flats dürfen dich solche Ergebnisse nicht wundern. Es spielt keine Rolle wie viel Glück du vielleicht bei anderen Aufnahmen ohne Flats hattest.

Lautet die Antwort ja, kann man sinnvoll weiter forschen. Wie sieht ein Roh Flat aus, wie das Master Flat etc.

Wenn ich deine Variante ohne DBE also mit der starken Vignette sehe, tippe ich aus die erste Antwort. Aber das ist nur mein Laien Bauchgefühl.

Gruß
Andreas
 
Hallo Andreas, da SGP, diese Schwarze balken hatte, und diese mit dem Neuesten Update gefixt wurden, kann ich jetzt Flats benutzen, war jedoch zuspät. Da ich zu der Zeit draußen war, das Update zwar angezeigt wurde, aber hatte kein Internet, beim nächsten Bild! LG nante
 
Ich kann mich nur den Aussagen von Okke und Andreas anschließen, solange Du keine Flats aufnimmst, wirst Du in PI bei Stretch immer solche "Flecken" sehen. Kenne ich aus "leidvoller" Erfahrung...
BTW: ich nutze auf Bilder wie von dir im zweiten "blauen" Bild gezeigt immer ABE/DBE, d.h kein Linear Fit.

CS Thomas
 
Hallo,
ich könnte mir auch vorstellen, dass M27 und M51 auch diese Flecken zeigen, würde man das Histogramm dort genauso hochziehen wie bei NGC 5906. Das scheint ne schwache Funzel zu sein und 1h 45m sind ja noch nicht so viel Belichtungszeit. Bei M27 warst du früher zufrieden, deswegen ist der Hintergrund hier auch viel dunkler.

Aber ansonsten: Ja, unbedingt Flats machen. Und wenn es nachträglich nicht mehr geht, dann ist das halt so. Beim nächsten Mal dann dran denken.

Viele Grüße,
Felix
 
Hallo, liegt anscheinend am ABE / DBE, hab das bild mal extrem gestreched, da ich nochmal m106 fotografiert habe, da ist erst was drauf, wenn ich den ABE oder DBE nutze.
 
Hallo Nante,


sorry aber irgendwie werde zumindest ich aus deinen Sätzen nicht immer schlau. Du schreibst immer sehr knapp und teilweise lückenhaft.
Welches Bild hast du extrem gestreched?
Warum schreibst du von nochmal M106, dieses Objekt war doch hier bisher gar nicht Thema.

Also wenn M106 jetzt dein neuer Belichtungsversuch war, dann zeige bitte die Bilder. Hast du diesmal Flats erstellt?
Was zeigt das Bild denn vor dem DBE wenn du vermeintlich nichts erkennst?

Und ja ich hab solche Bildfehler mit dem DBE Prozess in PI und dem Pendant in Siril auch schon erzeugt. Mir mangelt es aktuell einfach noch an dem Verständnis wann ich welche Methode wie richtig einsetze bzw. kann ich die Rohbilder noch nicht besonders gut "lesen" um die Extraction korrekt durchzuführen.
Ist bei mir häufig nach der Methode Try&Error. Außerdem nutze ich Bilder anderer vom gleichen Objekt um besser zu verstehen was Objekt/Nebel etc. ist und dann versuche ich mit meiner Bearbeitung nahe ran zu kommen.

CS
Andreas
 
Status
Es sind keine weiteren Antworten möglich.
Oben