Welcher Schärfelevel ist der Richtige für Deepsky Bilder? | Astronomie.de - Der Treffpunkt für Astronomie

Welcher Schärfelevel ist der Richtige für Deepsky Bilder?

joetaiga

Mitglied
Hallo zusammen,

ich habe die Tage nochmal M109 bearbeitet, die sich unter den Tonnen von Material versteckt hatte, die ich im April aufgenommen habe. M109 finde ich eine sehr interessante und zu Unrecht gern übersehene Galaxie, allerdings ist sie nicht besonders groß, sodass der erreichbare Detaillevel eine große Rolle spielt. Die verwendeten Frames hatten zwischen 2,4" und 3,1" FWHM.

Die erste Bearbeitung habe ich mit der Probelizenz von APP und Gimp gemacht. Ja, auch die habe ich geschärft ;)
M109z.jpg


Da ich mit dem Detaillevel nicht zufrieden war, habe ich eine zweite Bearbeitung mit Siril und Gimp gemacht. Dieses mal hat's mich gepackt und ich habe munter drauf los geschärft bis auch wirklich alles zu sehen war, was es gibt. Ich habe sogar die besten 50% nochmal gestackt, geschärft und nur für die hellsten Bereiche dem kompletten Stack überlagert.
M109b.jpg


Wenn man in Variante zwei etwas hineinzoomt, wird es allerdings extrem verrauscht. Daher habe ich eine dritte Variante gemacht, für die ich die zweite Variante mit einer invertierten Graustufenkopie des Bildes maskiert und dann einen Weichzeichner angewendet habe, damit das Bild nicht mehr so hart wirkt. Details gingen keine verloren, es wirkt nur flauschiger. Ansonsten habe ich noch die Farbe korrigiert.
M109d.jpg


Das ist soweit das, was ich mir aus den Fingern gesaugt habe. Welche Variante ist denn aus eurer Sicht optimal geschärft? Alle Varianten habe ich mit Unscharf Maskieren in Gimp geschärft. Oder sollte mit den FWHM Werten eher noch mehr gehen mit anderen Schärfetools?

Und dann wäre noch die Frage, wie man das wirklich macht? Das ist ja nur das, was ich mir selbst als Workflow erarbeitet habe. Ich sehe auf Astrobin immer wieder Bilder, die volle Details haben aber gleichzeitig selbst auf schwachem Signal kaum Rauschen. Irgendwie muss das ja gehen. Sind das irgendwelche speziellen Tools, die die verwenden?

Danke und CS
Joachim
 

Optikus

Mitglied
Hallo Joachim,

das dürfte immer eine Gratwanderung sein. Meine 10 Points für die dritte Variante.

CS
Jörg
 

astro_alex80

Mitglied
Hallo Joachim,

wie Jörg und Matchbox finde ich auch Version 3 sehr gut, kann mich aber zwischen 2 und 3 nicht entscheiden :)
Die FWHM Werte sind meiner Meinung guter Durchschnitt, nicht sensationell (aber Dtl liegt ja auch nicht auf 2.000 m) aber auch nicht schlecht, im Gegenteil.

Du kannst, davon ausgehend, dass genug subframes zusammen sind das ganze auch nochmal gedrizzled bearbeiten, da sollten noch mehr Details rauskommen.

Keine Schärfetool im eigentlichen Sinne und schwierig in der Anwendung bzw. Parametereinstellung, aber Deconvolution (als einer der ersten Bearbeitungsschritte) dürfte auch viel bringen. (Keine Ahnung ob APP oder Siril das können, bestimmt).

Viele Grüße,
Alex
 

Okke_Dillen

Mitglied
Moin,

soweit ich es hier ansehen kann, ist 2 mein Favorit :)
Warum: bei 3 sind mir die Sterne in der GX zu fluffig geworden.
Siril kann doch Deconvolution, wenn ich mich recht entsinne? Das wäre noch ein Tipp. UnsharpMask würde ich persönlich erst ganz zum Schluß als Final Cut anwenden, wenn überhaupt. Zumeist bin ich mit dem was Deconvolution liefert schon zufrieden, aber man probiert ne Weile... ;)

Gruß
Okke
 

joetaiga

Mitglied
Hallo zusammen,

mit Deconvolution habe ich wenig Erfahrung. Wann macht man das am besten? Nach der Hintergrundextraktion? Oder nach der Farbkalibrierung aber vor dem Strecken?

Mit Deconvolution in Siril habe ich das Problem, dass es nur auf das volle Bild anwendbar ist und ich nicht selektiv helle Bereiche erreichen kann, wie ich es mit der Unschärfemaske tue. Die Unschärfemaske wende ich normalerweise nach dem Entrauschen an.

Gimp kann auch Deconvolution über das GMIC Addon. Das Problem hier ist, dass ich auf das lineare Bild keine Möglichkeit einer Autostretch Preview gefunden habe. D.h. entweder ich wende es auf das ungestrecke Bild an und sehe erst nach dem Strecken das Resultat oder ich wende es nach dem Strecken an, was mir aber noch nie irgendein sinnvolles Resultat geliefert hat.

Wie auch immer, mit Deconvolution hatte ich immer das Problem mit den Schärfeartefakten an Sternen und im Hintergrund, da ich es nicht selektiv anwenden konnte. Oder mache ich da einen Denkfehler?

Danke und CS
Joachim
 

Miquel Prado

Mitglied
Zwischen 2 und 3 sehe ich keinen Unterschied (ausser dass 3 kühler in der Farbgebung ist).
Aber das ganze gerizzelt zum Vergleich wäre interessant (falls genügend Bilder vorhanden).
CS
 

eject

Mitglied
Hi Joachim,

insbesondere für Galaxien kann ich Topaz DeNoise AI empfehlen. Kommt bei mir in PS als Plug-In ganz am Ende der Bearbeitung zur Anwendung. Ich verwende meist die Default-Einstellung und setze die Deckkraft auf 50-80 Prozent (mit Hintergrund und Sternen durch Maske geschützt bzw. mit Maske und Brush nur auf die Galaxie angewendet).

lg, David
 

Terrorernie

Mitglied
Ist doch total subjektiv! Mach es so, wie es DIR gefällt, oder der Frau Finanzminister...

Wir betreiben i.d.R. keine Wissenschaft mit unseren Fotos, sondern wollen was hübsches (subjektiv) als Ergebnis von Technik und Bildbearbeitung gewinnen.

Mach es so ‘scharf’ oder farblich so ‘bunt’ wie D U das willst!

Mir persönlich gefällt die 2. Version gut.

Gruß
Ernie
 

Optikus

Mitglied
Moin,

ich denke dass man das wie schon geschrieben ist recht frei austoben kann, mir ist neben der Ästhetik wichtig, dass man das Geschehen in den Objekten erkennen kann. Letztlich habe ich die Daten der Aufnahme auf der Platte, wenn ich im Bild etwas entdecke was mich interressiert kann ich die Daten immer noch unter wissenschaftlichen Gesichtpunkten untersuchen. Man vergibt sich dabei nichts.

CS
Jörg
 

steffens

Mitglied
Mir gefällt auch Variante 3 am besten, aber der Unterschied ist schon sehr subtil.

Mit Siril und Deconvolution habe ich auch so meine Probleme. In Bereichen mit gutem Signal bringt das durchaus was, aber im Hintergrund wird eben auch das Rauschen geschärft. Da das Tool keine lokale Bearbeitung erlaubt, bleibt eigentlich nur, eine Variante mit Deconvolution und eine ohne zu entwickeln - bei ansonsten gleichem Vorgehen. Die beiden Bilder kann man dann später z.B. in Gimp mit Ebenen selektiv überblenden. Das war mir bisher zu umständlich, aber falls Du es mal ausprobierst und zu guten Ergebnissen kommen solltest - lass es mich wissen ;)
Achso: ich glaube, im aktuellen Release-Stand ist das Deconvolution-Tool auch noch etwas primitiver als im Dev-Stand (GIT). Hoffentlich gibt es bald ein neues Release, es wurde schon so viel verbessert, dass ich nur noch mit dem selbst gebauten Dev-Stand arbeite.

Grüße,
Steffen
 

Miquel Prado

Mitglied
insbesondere für Galaxien kann ich Topaz DeNoise AI empfehlen. Kommt bei mir in PS als Plug-In ganz am Ende der Bearbeitung zur Anwendung. Ich verwende meist die Default-Einstellung und setze die Deckkraft auf 50-80 Prozent (mit Hintergrund und Sternen durch Maske geschützt bzw. mit Maske und Brush nur auf die Galaxie angewendet).
lg, David
ich dachte Topaz DeNoise AI sei dazu da um generel das Rauschen - vor allem auch das Hintergrundrauschen - zu entfernen. Dass du das nur auf die Galaxie anwendest verwirrt mich jetzt..
 

eject

Mitglied
ich dachte Topaz DeNoise AI sei dazu da um generel das Rauschen - vor allem auch das Hintergrundrauschen - zu entfernen. Dass du das nur auf die Galaxie anwendest verwirrt mich jetzt..
Hi,

natürlich verwende ich es auch fürs Entrauschen des Hintergrundes, aber mit anderen Einstellungen (v. a. viel dezenter) und hier sehe ich persönlich auch nicht besonders große Vorteile gegenüber z. B. der Denoise-Funktion von Camera Raw in PS. Fürs Entrauschen und Schärfen der Galaxie hingegen finde ich es um Welten besser und da es im Beitrag um das Schärfen der Galaxie ging, bin ich auch nur darauf eingegangen.

lg, David
 

eject

Mitglied
Hallo Sebastian,

aus meinem Post geht ja auch wirklich nicht klar heraus warum ich ein Denoise-Tool zum Schärfen empfehle, deshalb hier mal ein Beispiel von M66:
topaz_vgl.png

lg, David
 

astro_alex80

Mitglied
Hallo Sebastian,

aus meinem Post geht ja auch wirklich nicht klar heraus warum ich ein Denoise-Tool zum Schärfen empfehle, deshalb hier mal ein Beispiel von M66:
Den Anhang 138317 betrachten

lg, David
Das ist eine ordentliche Verbesserung (y) stark!
Sieht für mich eher nach einer Art Kontrast und Dynamik-Verbesserung anstatt schärfen aus. Richtig angewendet bringt das für Details und den sichtbaren Eindruck natürlich häufig. Daher wahrscheinlich auch die Anwendung dieses eigentlich Denoise Tools.
 

joetaiga

Mitglied
Auch interessant wäre die Frage, warum nicht Topaz Sharpen AI. Die bieten ja auch das an.

Allerdings kostet das jeweils 80$...
 

joetaiga

Mitglied
Mit Siril und Deconvolution habe ich auch so meine Probleme. In Bereichen mit gutem Signal bringt das durchaus was, aber im Hintergrund wird eben auch das Rauschen geschärft. Da das Tool keine lokale Bearbeitung erlaubt, bleibt eigentlich nur, eine Variante mit Deconvolution und eine ohne zu entwickeln - bei ansonsten gleichem Vorgehen. Die beiden Bilder kann man dann später z.B. in Gimp mit Ebenen selektiv überblenden. Das war mir bisher zu umständlich, aber falls Du es mal ausprobierst und zu guten Ergebnissen kommen solltest - lass es mich wissen ;)
Achso: ich glaube, im aktuellen Release-Stand ist das Deconvolution-Tool auch noch etwas primitiver als im Dev-Stand (GIT). Hoffentlich gibt es bald ein neues Release, es wurde schon so viel verbessert, dass ich nur noch mit dem selbst gebauten Dev-Stand arbeite.
Eigentlich müsste ja bald mal wieder was kommen.

Habe eben mal mit dem Decon Tool herumgespielt, aber bei weiten nicht das Ergebnis erreicht, das ich mit der Unschärfe-Maske in Gimp hinbekomme. Mag natürlich auch daran liegen, dass ich nicht wirklich was mit den Parametern in Siril anfangen kann...
 

eject

Mitglied
Ist halt mein Workflow, aber natürlich kein Muss :)

Auch interessant wäre die Frage, warum nicht Topaz Sharpen AI. Die bieten ja auch das an.

Allerdings kostet das jeweils 80$...
Sharpen AI hab ich auch mal ausprobiert, Denoise AI find ich persönlich zu diesem Zweck aber besser geeignet, eben weil es gleichzeitig entrauscht und schärft. Aber man kann eh beide Tools testen.

lg, David
 

Miquel Prado

Mitglied
Ist halt mein Workflow, aber natürlich kein Muss :)
lg, David
Ja ich habe verstanden, dass es dein Workflow ist. Aber mich würden die Gründe interessieren. Bringt es einen Nachteil wenn man Denoise AI bereits relativ früh im Workflow anwendet? (wenn ja warum?).
Ich hab schon gemerkt, dass sich viele über die Reihenfolge der Bildbearbeitung gerne "ausschweigen".
Warum man da so ein Geheimnis draus macht ist mir unverständlich..
Schönen Gruß
 

joetaiga

Mitglied
Sharpen AI hab ich auch mal ausprobiert, Denoise AI find ich persönlich zu diesem Zweck aber besser geeignet, eben weil es gleichzeitig entrauscht und schärft. Aber man kann eh beide Tools testen.
Ich werde mir mal eine Probelizenz besorgen und dann schauen, was das aus dem Bild hier macht. Ich habe mal geschaut, wie die Auflösung der Version 3 des Bildes ist. Diese liegt im Rahmen der FWHM Werte der Einzelbilder. Da geht sicher nicht mehr viel an Schärfe aber evtl. geht das garstige Rauschen weg.

Hast du das Bild vorher nochmal in einem anderen Programm geschärft? Das Ergebnis hat auf jeden Fall mehr Details und ist gleichzeitig völlig glatt gezogen. Ich denke das ist etwas, was mit einem Tool wie Gimp schwierig wird.

Man darf halt auch nicht vergessen, dass ich meine Ergebnisse ausschließlich mit Software erziele, die nichts kosten.
 

eject

Mitglied
Ja ich habe verstanden, dass es dein Workflow ist. Aber mich würden die Gründe interessieren. Bringt es einen Nachteil wenn man Denoise AI bereits relativ früh im Workflow anwendet? (wenn ja warum?).
Ich hab schon gemerkt, dass sich viele über die Reihenfolge der Bildbearbeitung gerne "ausschweigen".
Warum man da so ein Geheimnis draus macht ist mir unverständlich..
Schönen Gruß
Hallo Sebastian,

ich hatte nicht die Intention meinen Workflow zu verschweigen, nur ist es meist aufwändig einen kompletten Workflow aufzulisten. Aber grundsätzlich hätte ich gesagt, dass man sich das (finale) Entrauschen und Schärfen für den Schluss aufhebt, damit man vermeidet, durch weitere Bearbeitungssschritte Artefakte zu erzeugen (so mache ich es halt, und ich bin mit den Ergebnissen zufrieden, ob das jetzt eine optimale Vorgehensweise ist, kann ich nicht beurteilen, viele Wege führen nach Rom).
Hier mal mein Workflow grob umrissen: grundsätzlich mach ich die Bildbearbeitung mit Pixinsight, den Feinschliff dann in PS. Die Vorgehensweise habe ich mir aus unterschiedlichen Tutorials zusammengestückelt.
1. Ich dithere meine Aufnahmen.
2. Kalibration mit Flats und Bias (keine Darks -> meine EOS 6Da hat kein merkliches Verstärkerglühen)
3. Dann Hotpixel mit Cosmetic Correction entfernen, Debayern, mit Subframe Selector nur die besten Lights auswählen (mit niedrigstem FWHM und Eccentricity), Star Alignment, mit 2xDrizzle integrieren
4. Crop
5. Gradienten mit Dynamic Background Extractor entfernen
6. Farbkalibrierung und Background Neutralization mit Photometric Color Calibration
7. Grünstich mit SCNR entfernen
8. Hintergrund Entrauschen mit Multiscale Linear Transform (Luminanz und Chrominance separat, Hauptbjekt und Sterne mit Maske geschützt)
9. Script Repair HSV Separation (um Artefakte bei Masked Stretch - Stichwort pinke Sternzentren - zu vermeiden)
10. Sättigung von Sternen und Hauptobjekt mit Curves Transformation leicht erhöhen
11. Stretch mit Kombination aus ArcsinhStretch, Histogram Transform und Masked Stretch
12. Hintergund Entrauschen mit TGVDenoise und Farbe des Hintergrundes mit MultiscaleLinearTransform reduzieren (Hauptobjekt und Sterne wieder mit Maske geschützt)
13. Farbsättigung von Hauptobjekt und Sternen mit Curves Transformation erhöhen
14. Sternreduktion mit Morphological Transformation
15. weiter in PS
16. etwaige noch vorhandene schwierige Gradienten oder kosmetische Fehler korrigieren
17. Lokalen Kontrast des Hauptobjekts mit Tonal Contrast (Nik Collection) bei Bedarf erhöhen
20. Farbdynamik vom Hintergrund bei Bedarf reduzieren
19. Hintergund mit Topaz Denoise AI entrauschen (AI Clear Funktion)
20. Hauptobjekt mit Topaz Denoise AI entrauschen und schärfen (Denoise AI Funktion)
21. Schwarzpunkt im Histogramm setzen, dass der Hintergund bei 20-30 liegt

So in etwa war meine Vorgehensweise fürs Leo Triplet. Endergebnis ist hier zu finden: Leo triplet (AstroGraz) - Full resolution | AstroBin

Dieser Workflow ist dynamisch, weil ich ständig Neues bei der Bildbearbeitung dazulerne und versuche einzubringen und natürlich vom Objekt abhängt.

Ich werde mir mal eine Probelizenz besorgen und dann schauen, was das aus dem Bild hier macht. Ich habe mal geschaut, wie die Auflösung der Version 3 des Bildes ist. Diese liegt im Rahmen der FWHM Werte der Einzelbilder. Da geht sicher nicht mehr viel an Schärfe aber evtl. geht das garstige Rauschen weg.

Hast du das Bild vorher nochmal in einem anderen Programm geschärft? Das Ergebnis hat auf jeden Fall mehr Details und ist gleichzeitig völlig glatt gezogen. Ich denke das ist etwas, was mit einem Tool wie Gimp schwierig wird.

Man darf halt auch nicht vergessen, dass ich meine Ergebnisse ausschließlich mit Software erziele, die nichts kosten.
Ja, eine Probelizenz zum Testen ist sicher am besten geeignet, um rauszufinden was dir das Tool in deiner Bearbeitung bringt, und ob es dir die Kosten wert ist.
Ich habe das Bild vorher nicht geschärft, aber ich habe früher mit DSS gestackt und ich muss sagen, dass man bedeutend schärfere Bilder bekommt, wenn man mit PixInsight stackt.

lg, David
 

joetaiga

Mitglied
Hallo zusammen,

@eject
Ich habe in Gimp mal etwas neues Probiert: Schärfen über eine Kantenmaske nur für die allerhellsten Details + Kontrastverstärkung über einen Hochpassfilter. Das ist der Unschärfemaske überlegen, es kommen viel mehr kleine blauen Sternentstehungsgebiete heraus, der Kontrast ist deutlich besser bei gleichzeitig deutlich weniger Rauschen. Die Auflösung ist allerdings mehr oder weniger gleich. Mehr als in den Frames drin ist, ist halt nicht sichtbar zu machen. Man sieht die Details aber besser. Ich habe nicht mal die Methode mit den 50% besten Frames bemüht und trotzdem sieht es besser aus.

Dann habe ich noch am Ende versucht in Denoise AI eine Verbesserung zu erzielen. Bei dem Ergebnis bin ich zwiespältig. Den Rauschenfilter darf man nur sehr sensibel bemühen, da sonst die dunklen Strukturen geschluckt werden. Der Schärfefilter holt zwar nochmal etwas heraus, aber wenn man stärker hineinzoomt, sieht man, dass es sich hier eher um Rauschartefakte handelt und weniger um neue Details.
1589490159822.png

Ich denke, da ist irgendwann einfach Feierabend. Es zeigt aber auch, dass die Tools in Gimp gar nicht so schlecht sind, sondern viel davon abhängt, ob man weiß, wie man sie bedient. Der Topazfilter ist allerdings extrem simpel zu bedienen. In Gimp muss brauche ich halbe Stunde für das was ich in Denoise AI in 2-3 Minuten hinbekomme.

@Miquel Prado
Die Workflows bekommt man eigentlich relativ einfach. Das ist auch keine Quantenmechanik. Ich kalibriere die Einzelbilder, stacke, croppe, ebne den Hintergrund, kalibriere die Farben, dann entrausche und Schärfe ich und mache noch etwas Feintuning bei allem möglichen. Der eine macht den einen Schritt etwas früher, der andere später, der eine zerlegt die Kanäle nochmal, oder entsternt die Bilder, der andere nicht.

Das kann man sich auch mit gesundem Menschenverstand erschließen. Was man sich nicht so einfach erschließen kann und was man auch nicht so einfach herausfindet, ist wie die einzelnen Schritte durchgeführt werden. Es gibt etliche Rauschfilter. Welchen nehme ich denn und mit welchen Parametern? Genauso das Schärfen. Wenn ich schreibe, dass ich eine Unschärfemaske verwende, wie mache ich das denn? Es steht nirgends, dass man den Radius in etwa auf die FWHM Werte in Pixel oder etwas darunter einstellt und dafür die Stärke deutlich erhöhen kann. Es steht nirgends, dass man das auch iterativ machen kann mit verschiedenen Radien und dafür geringeren Stärken, es steht auch nirgends, dass man am besten für jeden Radius eine Ebene verwendet und entsprechend mit dem Deckungsregler nochmal feinabstimmen kann. Das ist wie bei der Ölmalerei. Da doktert man stundenlang an einer Struktur herum und dann kommt ein alter Hase vorbei und zeigt einem einen Trick mit dem man das selbe besser in einer Minute erreicht.

Deswegen mache ich gerne solche Threads auf und frage, wo der Punkt ist, an dem man aufhören sollte und wie es genau geht. Das schreibt zwar in der Regel keiner wirklich, aber durch die Diskussion bekomme ich so viele Anregungen, dass ich mir daraus wieder neue Methoden ableiten kann.

CS Joachim
 

Miquel Prado

Mitglied
Hallo Joachim, ist ja alles richtig was du schreibst.
Ich werde aber ebenfalls das Gefühl nicht los, das die Reihenfolge der Bildbearbeitung ebenfalls einen enormen Einfluss auf das Endergebnis hat. Man kann mit viel Erfahrung die von dir beschriebenen Kentnisse anwenden, aber was nützt es, wenn man sich am anderen Ende alles wieder zunichte macht, weil man die Bearbeitungsreihenfolge unterschätzt hat.

Um ein Beispiel zu nennen: Es heisst, man soll in PI erst relativ spät stratchen. Das hat doch sicherlich seinen guten Grund. Aber was steckt wirklich dahinter? Liegt es nun an PI oder ist das generell empfehlenswert? Ein anderes Beispiel wäre, Gradienten entfernen, mit oder ohne Sterne? - Sterne maskieren?
Auch generell scheint man sich bei der Prozedur der Sternentfernung nicht einig zu sein. Es gibt Leute die entfernen die Sterne, bearbeiten dann das Bild fast komplett und fügen die Sterne erst am Ende wieder ein. Andere halten das nicht für nötig. Das kann aber keine Geschmacksfrage sein. Mit Sicherheit bietet der eine Weg mehr Vorteile als der andere. Aber wo kann ich das nachlesen?
All die oben aufgeführten Beispiele (und mehr) müssen echte Profis mit Bestimmtheit bereits validiert haben. Da muss man das Rad nicht unbedingt neu erfinden.
Ist nur die bescheidene (und vielleicht auch falsche) Meinung eines Anfängers der sich Antworten erhofft, um grobe Fehler der Bildbearbeitung zu vermeiden.
Schönen Abend
 
Zuletzt bearbeitet:

eject

Mitglied
Hallo zusammen,

@eject
Ich habe in Gimp mal etwas neues Probiert: Schärfen über eine Kantenmaske nur für die allerhellsten Details + Kontrastverstärkung über einen Hochpassfilter. Das ist der Unschärfemaske überlegen, es kommen viel mehr kleine blauen Sternentstehungsgebiete heraus, der Kontrast ist deutlich besser bei gleichzeitig deutlich weniger Rauschen. Die Auflösung ist allerdings mehr oder weniger gleich. Mehr als in den Frames drin ist, ist halt nicht sichtbar zu machen. Man sieht die Details aber besser. Ich habe nicht mal die Methode mit den 50% besten Frames bemüht und trotzdem sieht es besser aus.

Dann habe ich noch am Ende versucht in Denoise AI eine Verbesserung zu erzielen. Bei dem Ergebnis bin ich zwiespältig. Den Rauschenfilter darf man nur sehr sensibel bemühen, da sonst die dunklen Strukturen geschluckt werden. Der Schärfefilter holt zwar nochmal etwas heraus, aber wenn man stärker hineinzoomt, sieht man, dass es sich hier eher um Rauschartefakte handelt und weniger um neue Details.
Den Anhang 138547 betrachten
Ich denke, da ist irgendwann einfach Feierabend. Es zeigt aber auch, dass die Tools in Gimp gar nicht so schlecht sind, sondern viel davon abhängt, ob man weiß, wie man sie bedient. Der Topazfilter ist allerdings extrem simpel zu bedienen. In Gimp muss brauche ich halbe Stunde für das was ich in Denoise AI in 2-3 Minuten hinbekomme.
Hi Joachim,

ja, irgendwann ist sicher Schluss und man arbeitet nur mehr Artefakte heraus. Ich finds super, dass du händisch in Gimp ein vergleichbares Ergebnis erzielen kannst (Denoise AI wird im Prinzip vermutlich auch auf eine Kombination ähnlicher Grundoperationen zurückgreifen), ich bin schlicht zu bequem dafür und lasse Topaz die Arbeit machen :)

Hallo Joachim, ist ja alles richtig was du schreibst.
Ich werde aber ebenfalls das Gefühl nicht los, das die Reihenfolge der Bildbearbeitung ebenfalls einen enormen Einfluss auf das Endergebnis hat. Man kann mit viel Erfahrung die von dir beschriebenen Kentnisse anwenden, aber was nützt es, wenn man sich am anderen Ende alles wieder zunichte macht, weil man die Bearbeitungsreihenfolge unterschätzt hat.

Um ein Beispiel zu nennen: Es heisst, man soll in PI erst relativ spät stratchen. Das hat doch sicherlich seinen guten Grund. Aber was steckt wirklich dahinter? Liegt es nun an PI oder ist das generell empfehlenswert? Ein anderes Beispiel wäre, Gradienten entfernen, mit oder ohne Sterne? - Sterne maskieren?
Auch generell scheint man sich bei der Prozedur der Sternentfernung nicht einig zu sein. Es gibt Leute die entfernen die Sterne, bearbeiten dann das Bild fast komplett und fügen die Sterne erst am Ende wieder ein. Andere halten das nicht für nötig. Das kann aber keine Geschmacksfrage sein. Mit Sicherheit bietet der eine Weg mehr Vorteile als der andere. Aber wo kann ich das nachlesen?
All die oben aufgeführten Beispiele (und mehr) müssen echte Profis mit Bestimmtheit bereits validiert haben. Da muss man das Rad nicht unbedingt neu erfinden.
Ist nur die bescheidene (und vielleicht auch falsche) Meinung eines Anfängers der sich Antworten erhofft, um grobe Fehler der Bildbearbeitung zu vermeiden.
Schönen Abend
Hallo Sebastian,

ich bin wirklich kein Experte auf dem Gebiet (wie oben bereits erwähnt, hab ich mir meinen Workflow aus unterschiedlichen Tutorials zusammengestückelt und halt viel rumprobiert und versucht viel nachzulesen -> z.B. schau ich mir regelmäßig die neuen Beiträge im PixInsight-Forum an, da lernt man immer was).
Das mit dem spät Stretchen kommt daher, dass man viele Bearbeitungsschritte am linearen Bild machen sollte, weil viele Korrekturalgorithmen (z.B. Denoise, Hintergundkorrektur) in den entsprechenden Bildbearbeitungsprogrammen (z.B. PixInsight) für lineare Daten optimiert wurden. Durchs Stretchen verstärkt man ja auch Gradienten und Noise, welche dann schwerer zu entfernen sind. Wichtig: So verstehe ich es und ich bin wie gesagt kein Experte auf dem Gebiet und kenne dementsprechend die mathematischen Hintergründe nicht.
Bezüglich unterschiedlicher Workflows: in PixInsight gibt es so viele Tools, die ähnliche Operationen ausführen, dass es zwangsläufig zu Unterschieden kommt. Der eine präferiert das Entrauschen mit diesem Tool, der andere mit jenem, etc. Ist halt dann doch auch eine Geschmacksfrage und wie auch bereits erwähnt: viele Wege führen nach Rom.
Adam Block hat kürzlich im PixInsight-Forum erwähnt, dass die Advanced Imaging Conference alle Vorträge frei zugänglich gemacht hat (man muss sich nur registrieren): The AIC Digital Library
Hab mich erst gestern registriert, deshalb hatte ich noch nicht die Zeit mir die vorhanden Präsentationen durchzuschauen, aber vielleicht findest du hier den ein oder anderen Vortrag, der einige Fragen beantworten kann.

lg, David
 
Das Homepagetool mit der aktuellen Mondphase u.v.m.

(Alle Angaben für 10 Grad ö.L. Länge / 50 Grad n.B.)

In Kooperation mit www.Der-Mond.org Hole Dir jetzt das kostenlose Mondtool für Deine Homepage

Oben