Die Developer Version von SIRIL 1.1 haut mich um

noideaforaname

Aktives Mitglied
Hallo,

bin eben über ein YT Video auf die aktuelle Developer Version/Nightly von SIRIL aufmerksam geworden.

SIRIL verwende ich seit gut knapp einem Jahr nur noch unter Windows. Vorher unter Linux, da hab ich öfters mal in die Nightlys reingeschnuppert, aber Zeit und die in meinen Augen Einfachheit von Windows 11 (einige werden mich nun steinigen) hat mich dann doch faul gemacht (Tschööö Konsole).

SIRIL nutze ich schon einige Jahre (auch meiner bis vor einem Jahr schlechten Hardware geschuldet)... mit APP kann ich mich nicht anfreunden und PI ist mir zu kompliziert in der Bedienung. Bei Siril weiß ich irgendwie was ich tue.

Mir ist im wahrsten Sinne des Wortes die Kinnlade runtergeklappt und auch einige Zeit so geblieben beim ausprobieren.

- Integration von Starnet++
- PixelMath
- Entrauschung
- Verkippung (liefert identische Werte zu ASTAP)
- resynthetisieren von Sternen (aus langezogen wird rund unter beibehalt der Helligkeit und Farbe)
- rejection maps
und und und

Interessanterweise bietet das verlinkte Handbuch mal ordentlich Informationen zu den neuen Features.

Aus mal kurz reinschnuppern wurde ein drei Stunden rumprobieren.

Ich kann jeden nur empfehlen, wer Siril gerne nützt, sich die aktuellste Nightly über Git zu besorgen. Die Software ist definitiv auf dem richtigen Weg!

CS

Ralph
 
Hallo Ralph

danke fürs Teilen! Das sind super Neuigkeiten. Endlich wird es ein Freeware Tool zum Entrauschen von linearen Daten geben. Die Integration von Starnet++ ist natürlich auch praktisch. Evtl. funktioniert das nun auch mit 32bit? So langsam wird es ein komplettes Gesamtpaket.

Pixelmath und Deconvolution gibt es schon eine Weile in Siril. Wurden die Tools überarbeitet?

Grüße,
Joachim
 
Dekonvolution ist komplett neu. Ersetzt die Alte.
Starnet++ ist natürlich weiterhin leider nur 16 Bit. Es wird auch "nur" von Siril aus aufgerufen. Es ist nicht integriert, erscheint nur im Menu.

Ciao, Udo
 
Das Hyperbolic Stretch Tool ist wohl auch komplett neu gemacht.

Und...Live Stacking. Krass :) Das müsste auch mit Firecapture funktionieren. D.h. man müsste dann mit dem stabilisierten ROI von Firecapture mit dem Dobson kleinere Deepskyobjekte aufnehmen können. Ist nur die Frage, ob man gleichzeitig auch die Preview und eine Art Rejection für schlechte Frames und Satellitenspuren hat.
 
Hi,

ja, ja, die Geheimiskrämer. ;)

nightly build bekommt man hier:

Auf Download gehen und dann win64-nightly herunterladen.
Entpacken, in bin ist dann das EXE.

Gruß
Peter
 
Hi,

ja, ja, die Geheimiskrämer. ;)

nightly build bekommt man hier:

Auf Download gehen und dann win64-nightly herunterladen.
Entpacken, in bin ist dann das EXE.

Gruß
Peter

Danke für das Einstellen des Links zum Download. Bin nicht dazu gekommen, da ich gerade in meiner jährlichen Pflichtfortbildung (muss man als Notfallsanitäter) sitze.

Hab aber Hummeln im Popo und will nach Hause und mit Siril rumspielen 😆
 
Mein absolutes Lieblingsfeature: endlich ist die Farbansicht des Bildes vollständig nutzbar.
D.h. Auswahl setzen, Bild zurechtschneiden, Samples für die Background-Extraction usw.

Auch sonst ist die Liste der Änderungen sehr lang. Toll sind auch die neuen Möglichkeiten bei der Registrierung oder bei der Filterung von Bildern, die man zum Stacken verwenden möchte. Unlinked Auto-Stretch ist ebenfalls großartig.

Ich nutze schon seit Jahren immer den aktuellen Entwicklungsstand und hatte nur extrem selten mal ein Problem, so dass ich zu einem vorhergehenden Stand zurückwechseln musste.

Der direkte Link zu den nightly-Builds wäre dieser hier:

Einfach beim neuesten Eintrag auf der rechten Seite den Download "win64-nightly:archive" auswählen.

Grüße,
Steffen
 
Zuletzt bearbeitet:
Mein absolutes Lieblingsfeature: endlich ist die Farbansicht des Bildes vollständig nutzbar.
D.h. Auswahl setzen, Bild zurechtschneiden, Samples für die Background-Extraction usw.
na, das ist mal ein Ding. Dass das technisch überhaupt geht. ;)
Da muss ich mich ja direkt umgewöhnen. ;)

Spass beiseite, vielen Dank an die Entwickler für ihre tolle Arbeit.

Gruß
Peter
 
Zuletzt bearbeitet:
Erst mal vielen Dank für die Meldung zu der Developer-Version! :y:

Habs gestern schon mal auf die Schnelle mit einem schnell ausgewählten alten Bild ausprobiert und war enttäuscht über das Ergebnis nach der Hintergrundextraktion.
Da hat das Programm zwar Gradienten auf der rechten Bildseite entfernt, aber auf der linken neue geschaffen. Also erst mal Finger davon gelassen (kann auch ein anderes Problem sein...)

Heute aber ein neuer Versuch mit eine anderen Rohbild aus einem früheren Stack und siehe da, das geht nun.

Aber was mir auffällt ist, dass ganz schön Rechenleistung für das eine oder andere Feature benötigt wird. Ich habe mal das geänderte Dekonvolution ausprobiert.
Das geht nun in 2 Schritten. Beide brauchen bei mir mächtig Zeit , sprich mehrere Minuten und ich dachte schon, die Sache hätte sich aufgehangen.
Da das Ergebnis mit den (vielen) Default-Parametern nicht akzeptabel war (schwarze Ringe um die Sterne), hab ich mal auf Rückschritt geklickt und auch da braucht er auch wieder ein paar Minuten. Also mal eben ausprobieren, ist leider nicht mehr.
Ich denke, da braucht man ganz schön Zeit, um das alles mal auszuprobieren und die passenden Einstellungen rauszufinden.
Hoffe, dass da auch eine Anleitung kommt, die mal die Parameter beschreibt.

Ich glaub ich brauche doch noch schneller als gedacht einen neuen Power-Rechner...:rolleyes:

Grüße
Hartmut
 
Bin gerade am weiter rumprobieren... ich muss meinen Workflow jetzt komplett neu denken :rolleyes:

Früher nur die einzelnen Frames vorbearbeitet, Gradienten in den einzelnen Frames entfernt, Registriert, gestacked, Deconvultion, Sättigung leicht angehoben, Asinh Stretch, Histogramm und dann ab in Starnet++ und alles weitere in Affinity Photo. Frage mich auch gerade, warum ich mir vor drei Wochen den NoiseXTerminator gekauft habe :oops:

Was ich jetzt noch definitiv machen werde ist, dass ich der Starnet++ Version ohne GUI eine CUDA Beschleunigung spendiere. Die GUI Version hab ich so eingerichtet und da dauert das ganze nur ein paar Sekunden. Ich weiß jetzt nicht, ob sich der CUDA Support auch auf die Deconvultion umstellen lässt. Wäre jedenfalls für Besitzer einer NVIDIA Grafikkarte ein großer zeitlicher Vorteil.

Und selbst bei meinem Ryzen 5900x Prozessor mit 12 Kernen und 24 Threads dauert das ganze :oops:

Gruß

Ralph
 
Und selbst bei meinem Ryzen 5900x Prozessor mit 12 Kernen und 24 Threads dauert das ganze :oops:
Klar dauert das.... Du hast aber in den Einstellungen auch das Multithreading für die FFT aktiviert? Da gibt es auch noch ein paar weitere Einstellungen für die FFT welche bei der Dekonvolution genutzt wird - da kann man durchaus noch Einiges herausholen.

Ggf. macht es auch Sinn die Dekonvolution zunächst mit einem kleineren Bildausschnitt durchzuführen um sich an die Parameter heranzutasten. Das geht dann deutlich schneller (abgesehen von der "Einstiegsphase" der FFT).

Eine Änderung der Kernelgröße macht zumindest die erste Dekonvolution danach auch besonders langsam. Große Kernels brauchen länger als "passgenaue". Usw.

Und natürlich: Den Workflow wird man umstellen müssen ;-) Dafür tun sich aber halt auch eine Menge neuer Möglichkeiten auf.

Ciao, Udo
 
Für mich als Bildbearbeitungslegastehniker wäre es sehr hilfreich, wenn jemand mal einen Vorschlag (für SIril) als grobe Strichauflistung posten könnte.
Ich wurschtle mich da immer etwas durch basierend auf einr Web-Page, die ich mal gefunden habe, sich aber auf ein ganz altes Siril bezieht.
Das sind aber auch nur wenige Schritte.
Mit den Möglichkeiten, die Siril jetzt bietet, fällt es mir schwer, da eine sinnvolle Reihenfolge festzulegen._affeaugen:

Grüße
Hartmut
 
Hallo,

habe mit Siril zwar noch nicht gearbeitet aber da es auf dem Rpi läuft, wäre es sicher interessant.
Hat schon jemand damit LiveStacking gemacht ?
Das ist nämlich das was mir noch fehlt in meinem EEA Setup.
 
Auf der Siril-Seite gibt es Tutorials ;-) Ansonsten macht es beim aktuellen Stand der Entwicklerversion noch nicht soooo viel Sinn da jetzt eine ausgefeilte Anleitung zu schreiben. Sirilic macht beim Stacken wohl aktuell auch Probleme bzw. muss an die neue Version angepasst werden (bzw. angepasst wurde es wohl schon, läuft aber wohl noch nicht immer rund).

Für den Anfang würde ich aber grundsätzlich folgende Vorgehensweise empfehlen:

1. Bilder konvertieren, kalibrieren, registrieren, stacken - wie gehabt. Bei Farbkameras gibt es jetzt wohl die Möglichkeit des Bayer-Drizzle. Das spart Speicherplatz und erhöht die Bildauflösung des gestackten Bildes, geht allerdings etwas zu Lasten des Rauschens. Im Großen und Ganzen funktioniert das "manual workflow" Tutorial auf der Siril-Seite aber noch. Man muss nur beim Registrieren aufpassen, dass die Registrierung auch tatsächlich durchgeführt wird, die Bilder also wirklich transformiert werden. Standardmäßig "merkt" sich Siril nur die Verschiebung/Drehung.

2. Hintergrundgradienten entfernen.

3. Photometrische Farbkalibrierung

4. Schnell mal die Anzeige der Objektnamen anklicken um zu schauen was für Juwelen sich ggf. außer dem anvisierten Ziel noch im Bild befinden

5. Optional mit Starnet++ die Sterne entfernen (Menueintrag in Siril oder extern, oder StarX, wenn man hat). Falls genutzt kann man Sterne und Nebel getrennt strecken.

6. Ggf. Dekonvolution - aber das ist eigentlich kein Thema für Einsteiger ;-)

7. Rauschentfernung falls gewünscht (moderat!)

8. Strecken je nach Geschmack mit Asinh, einfacher oder allgemeiner hyperbolschischer Streckung oder der kontrastbegrenzten adaptiven Histogrammausgleichung - oder einer Kombination daraus.

9. Ggf. zwischendurch mal etwas an der Farbsättigung drehen.

10. Ergebnisse Sterne und Nebel oder Gesamtbild in Photoshop, Gimp, Affinity etc. nachbearbeiten bzw. zusammenführen.

Je nach dem welches Programm man für die abschließende Bearbeitung nutzt, welche sonstige Software man einsetzt (z.B. StarXterminator, NoiseXTerminator) muss man Workflow ggf. etwas anpassen. Aber als Grundgerüst sollte dieser Workflow eigentlich ganz gut funktionieren.

Ciao, Udo
 
Bei Farbkameras gibt es jetzt wohl die Möglichkeit des Bayer-Drizzle.
Das wäre mir so neu, ein allgemeines Bayer-Drizzle wurde soweit ich weiß noch nicht eingebaut.

Mit der Entwicklerversion wurde aber die Auftrennung von OSC Aufnahmen mit Duo-Narrowband Filtern verbessert, so dass jetzt die volle Auflösung der grünen und blauen Pixel in der Bayer-Matrix für den OIII-Kanal genutzt werden kann. Vielleicht meinst Du das?

Grüße, Steffen
 
Ich sehe gerade das "Nur Transformation in der Sequenzdatei speichern" mittlerweile standardmäßig abgewählt ist - dann funktioniert die Registrierung wie früher ;-)

Und stimmt. In der aktuellen Version ist das Bayer-Drizzle noch nicht drin. Es wird aber dran gewerkelt soweit ich mitbekommen habe ;-) Hatte ich jedenfalls irgendwo gelesen. Ich kann mich aber auch irren.

Kann sein dass es erst in der übernächsten Version kommt, da Cyril möglichst bald die nächste stabile Version launchen möchte.

Ciao, Udo
 
Hab gerade mal bisschen mit rum gespielt.

Die Umstellung wird schon einige Zeit kosten. Einfach den alten Workflow auf Siril übertragen liefert nur mäßige Ergebnisse. Entsternen mit linearen Daten liefert starke Artefakte, mit gestreckten Daten taugen die Sterne nichts, vor allem nicht mit asinh. Der Sternentsättigung habe ich nichts sinnvolles entlocken können. Das Decon Tool habe ich auch noch nicht komplett durchstiegen. Das ist weit komplexer als das alte. Da wird man sich ausgiebig mit beschäftigen müssen.

Als ich rum probiert habe, habe ich mich gefragt, ob Siril hier einen Pfad verlässt, wo man noch einen komfortablen Einstieg findet. Gerade wenn man noch nicht so bewandert ist. Das Preprocessing war ja schon immer sperrig, die Bearbeitungstools aber eher straight forward. Das neue Decon Tool z.B. ist natürlich vielfach mächtiger und hat viel mehr Potenzial als das alte, aber da sind so viele Optionen drauf, dass es fast das UI sprengt. Die meisten Leute, die eine derartige Komplexität suchen, werden doch eher Richtung PI gehen.

Glücklicherweise kann ich meinen alten Workflow noch komplett durchziehen und so kann ich mir in Ruhe Stück für Stück die neuen Tools ansehen.
 
Für das Stacking inkl. Preprozessing gibt es ja Sirilic. Damit wird die Komplexität wunderbar abgefedert. Und die neuen Features muss man ja nicht nutzen. Die alte Dekonvolution habe ich zum Beispiel nie genutzt. Starnet++ ist halt Starnet++ - da kann Siril kein StartXTerminator draus basteln ;-)
Wichtig ist aber, dass es eine Open-Source-Software gibt mit der sich sehr gute Stackingergebnisse erzielen lassen und in der man eine gute Basisausstattung für die Bildverarbeitung hat. Für Spezielles wird man weiterhin andere Software brauchen. Aber die meisten Leute hängen ja auch bei PI im Workflow hintern noch Photoshop dran....
Man muss sich auch mit Siril auseinandersetzen. Die "normale" Background-Extraktion ist zum Beispiel dafür gedacht Gradienten in den Lights zu entfernen - nicht komplexe Gradienten im gestackten Bild. Auch die neue Dekonvolution ist u.a. dafür entwickelt direkt auf die Bilder einer Sequenz angewendet zu werden - nicht zwingend auf das fertig gestackte Bild. Dazu kommt jetzt halt Live-Stacking und einige der Entwickler "drängen" auch verstärkt in Richtung Lucky Imaging.
Und wenn Siril sich im Funktionsumfang steigert, wird es natürlich auch komplexer zu erlernen. Aber noch sehe ich da kein großes Problem. Die neuen Tools muss ja Niemand nutzen - und wenn die offizielle Version mit diesen Features rausgeht, wird es vermutlich auch sehr schnell Tutorials und YT-Videos dazu geben.

Ciao, Udo
 
Die Sterne rund machen Tool, ist nicht der Wahnsinn. Im Endeffekt sollst du mit starnet dein RGB Bild entsternen und die Fake Sterne Reinpasten. Problem: sind nur für apo Aufnahmen, und die Sterne sind nicht deckungsgleich.
 
Die Sterne rund machen Tool, ist nicht der Wahnsinn. Im Endeffekt sollst du mit starnet dein RGB Bild entsternen und die Fake Sterne Reinpasten. Problem: sind nur für apo Aufnahmen, und die Sterne sind nicht deckungsgleich.
Je nach Aufnahmeregion scheint es einigermaßen zu funktionieren bei meinem Newton. Die Spikes dürfen nur nicht zu fett sein im Ausgangsbild. Eventuell könnte man noch eine gestreckte sternenlose Version um Artefakte und Spikes in einem Bildbearbeitungsprogramm bereinigen und das dann in Siril mit einer leicht gestreckten Version der runden Sterne wieder verheiraten.

Ganz zielführend ist das ganze trotzdem nicht. Würde ich nur anwenden wenn viel Zeit in die Aufnahme geflossen und im Endeffekt nur Mist rausgekommen ist 😅 das Ergebnis
wäre auch nur für Instagram zu gebrauchen und ja keine Zoomansicht dem Betrachter anbieten 🤣

@ubit bezüglich der Deconvultion habe ich das gestern festgestellt nach zwei Stunden rumprobieren. Im fertigen Stack kam da eigentlich nur Mist raus mit ekelhaften Bildfehlern. Muss ich unbedingt mal auf die ganze Sequenz anwenden vor dem stacken.
 
Ich hab mal versucht ein altes Bild mit ausschließlich Siril zu bearbeiten. Verglichen wird das dann mit einer in Gimp feingetunten Version und einer Version, die ich komplett von null mit meinem jetztigen Workflow mit Siril, Gimp und Denoise AI erstellt hab.


Verwendet habe ich von den neuen Tools nur die Starnet-Einbindung und das Entrauschen. Die Einbindung von Starnet bringt Starnet an sich auch einen Schritt vorwärts. Durch die Generierung der Sternmasken und das Vereinigungstool ist das schon ein mächtiges Werkzeug. Das Entrauschen habe ich noch nicht richtig durch. Decon habe ich nicht angewendet. Damit stehe ich immer noch auf Kriegsfuß.

Denke das kann sich erst mal sehen lassen. Müsste auch noch Luft nach oben sein, da ich die Tools sicher nicht optimal eingesetzt habe.
 
Also ich habe jetzt auch einiges durchprobiert in der DEV Version.

Bei der Deconvultion stehe ich auch noch auf dem Schlauch. Manchmal funktioniert es. Manchmal nicht. Wie das ganze vor dem stacken auf die Sequenz anzuwenden ist kapiere ich auch noch nicht so ganz. Es dauert vor allem wahnsinnig lange und das bei meinem Ryzen 5900x mit 64GB RAM und einer M2 SSD Gen4.

Vor allem auch beim Stacking hatte ich am Anfang Probleme. Mit den Default Einstellungen kam immer eine Warnung, dass die Registrierung nicht gespeichert worden ist. Das konnte ich aber beheben.

Entrauschung funktioniert ganz gut. Es sollten aber alle Kanäle getrennt entrauscht werden (hab ich früher eine Zeitlang so in Gimp per Hand gemacht vor allem auf den blauen Kanal). Lässt sich dann final noch ganz gut mit dem NoiseXTerminator verwurschteln (im positivem sinne).

Für mich sieht jetzt mein Workflow aber so aus:

PreProcessing in der stabilen Version von SIRIL (also Einzelbilder Kalibrierung mit Flats und Bias),
- Gradiententfernung auf die Einzelbilder
- Sacken
- Croppen
- Gradiententfernung
- Farbkalibrrung
- Deconvultion
- Sättigung gaaaanz leicht anheben

Dann geht's in der DEV weiter:
- übersättigte Sterne entsättigen
- Sterne entfernen
- Entrauschung im sternenfreien Bild
- Kombination von sternenfreien Bild und Sternmaske inklusive Stretching

Dann nach Belieben die Weiterbearbeitung in Affinity Photo.

Mir ist es auch öfters schon passiert, dass die DEV sich verabschiedet hat. Dafür ist es aber auch eine development Version.

Mich würde es jedenfalls definitiv freuen, wenn es Starnet und die Entrauschung in die kommende Version von SIRIL schafft.

CS

Ralph
 
Vor allem auch beim Stacking hatte ich am Anfang Probleme. Mit den Default Einstellungen kam immer eine Warnung, dass die Registrierung nicht gespeichert worden ist. Das konnte ich aber beheben.
Keine Ahnung, was da genau schief gelaufen ist.

Aber gerade die neue 2-Pass Registrierung finde ich sehr gut! Man kann im ersten Durchgang nur die Registrierungs-Information berechnen lassen, ohne direkt die ausgerichteten Bilder erzeugen zu lassen. Dann kann man mit Hilfe dieser Information ein neues Referenzbild aussuchen, schlechte Bilder anhand von etlichen Kriterien aussortieren, und auch den Ausschnitt für die Ergebnisbilder anpassen, so dass er entweder dem maximal möglichen Bildausschnitt umfasst, oder z.B. nur den Ausschnitt, für den in jedem Einzelbild Daten vorhanden sind. Damit ist theoretisch am Ende kein Wegschneiden von Rändern mehr nötig.
Erst dann lässt man sich die Sequenz der registrierten Bilder erzeugen.

Grüße,
Steffen
 
@steffens

Wie schaffe ich es denn die erfolgte Registrierung auf die Sequenz anzuwenden... muss ich da über die Konsole gehen?

ACH VERGISS ES... in dem Reiter konnte ich noch "vorhandene Registrierung anwenden" auswählen!!! ;)

Und ja... die Auswahlmöglichkeiten sind erste Sahne. Entspricht ja in etwa was ich früher aus DSS gewohnt gewesen bin (also bezüglich Crop auf das gestackte Bild)

Zu viele Nachtdienste und meine 5-jährige lässt mir kaum Zeit im Moment :cool:
 
Zuletzt bearbeitet:
Eine erste Vorab-Dokumentation zur neuen Version steht nun auch in deutscher Sprache online:


Es sind vermutlich noch ein paar kleinere Fehler drin und es gibt auch noch ein paar Lücken, da die englische Vorlage auch noch nicht ganz vollständig ist, aber vielleicht ist es ja für den Einen oder Anderen trotzdem schon hilfreich. Rauschunterdrückung und Dekonvolution sind jedenfalls enthalten ;-)

Ciao, Udo
 
Hallo,

super interessant! Das werde ich auch mal direkt testen müssen. Aktuell wechsle ich beim Entrauschen und bei der Deconv auf kleine selbst geschriebene Python-Scripte. Jedoch klingt es so, dass es so bleiben wird, wenn es keine Preview und nur CPU Support gibt.
Die Deconv. mit Richardson Lucy ist leider ein interativer Prozess und lässt sich gar nicht so einfach parallelisieren. Das heißt, neuer schneller PC bringt da eher wenig. Dann lieber einen Region/Crop mit Nebel und hellem Hintergrund mit hellem Stern als kleine Testumgebung zurecht legen. Ist den Siril und CUDA Support geplant? Weiß da jemand was?
Ich hatte mir für mein Deconv.-Skript eine CUDA Richardson Lucy Deconvolution selbst geschrieben. Ergebnis war: 100 % GPU Auslastung, keine Speichertransfers zwischen GPU und RAM und eine Geschwindigkeitssteigerung zu einer bereits sehr schnellen CPU Variante (mit FFT) um Faktor 10 bis 20. Also Siril und CUDA wäre nen Träumchen!

Wie kommt ihr darauf die Decon. auf die einzelnen Lights anzuwenden? Da ist doch noch zu viel Noise drin, der verstärkt wird und Mathematisch bleibt es gleich. Integrationszeit verlängert. Könnte mir jetzt nur vorstellen, dass es weniger rejects beim Stacken gibt… aber der Aufwand dafür?

@noideaforaname Gesättige Sterne repaieren ist wohl auch ganz frisch? Werden denn die Sterne im Float Format angehoben oder bleiben sie bei dem Peak Level und bekommen eine Gauss Form verpasst? Ich könnte mir gut vorstellen, dieser Fix wäre im Workflow gut vor der Deconv. angeordnet, da man dadurch weniger Ringing Effekte erhält, weil die Gradienten nicht so abrupt sind (Clipping Kante).

Hört sich jedenfalls sehr interessant an und eine reine Freeware Bearbeitung ist genau mein Vorhaben.

Viele Grüße

Sebastian
 
Hallo,

super interessant! Das werde ich auch mal direkt testen müssen. Aktuell wechsle ich beim Entrauschen und bei der Deconv auf kleine selbst geschriebene Python-Scripte. Jedoch klingt es so, dass es so bleiben wird, wenn es keine Preview und nur CPU Support gibt.
Die Deconv. mit Richardson Lucy ist leider ein interativer Prozess und lässt sich gar nicht so einfach parallelisieren. Das heißt, neuer schneller PC bringt da eher wenig. Dann lieber einen Region/Crop mit Nebel und hellem Hintergrund mit hellem Stern als kleine Testumgebung zurecht legen. Ist den Siril und CUDA Support geplant? Weiß da jemand was?
Ich hatte mir für mein Deconv.-Skript eine CUDA Richardson Lucy Deconvolution selbst geschrieben. Ergebnis war: 100 % GPU Auslastung, keine Speichertransfers zwischen GPU und RAM und eine Geschwindigkeitssteigerung zu einer bereits sehr schnellen CPU Variante (mit FFT) um Faktor 10 bis 20. Also Siril und CUDA wäre nen Träumchen!

Wie kommt ihr darauf die Decon. auf die einzelnen Lights anzuwenden? Da ist doch noch zu viel Noise drin, der verstärkt wird und Mathematisch bleibt es gleich. Integrationszeit verlängert. Könnte mir jetzt nur vorstellen, dass es weniger rejects beim Stacken gibt… aber der Aufwand dafür?

@noideaforaname Gesättige Sterne repaieren ist wohl auch ganz frisch? Werden denn die Sterne im Float Format angehoben oder bleiben sie bei dem Peak Level und bekommen eine Gauss Form verpasst? Ich könnte mir gut vorstellen, dieser Fix wäre im Workflow gut vor der Deconv. angeordnet, da man dadurch weniger Ringing Effekte erhält, weil die Gradienten nicht so abrupt sind (Clipping Kante).

Hört sich jedenfalls sehr interessant an und eine reine Freeware Bearbeitung ist genau mein Vorhaben.

Viele Grüße

Sebastian

Also zu SIRIL und CUDA weiß ich, dass ich da vor Jahren schonmal in dem ganz alten Forum vor dem Wechsel zu Pixls.us nachgefragt habe ob da etwas angedacht ist. Abgeneigt war da niemand. Bei GitLab sehe ich aber nichts dazu und beim durchforsten der Nightly Verzeichnisse bin auch nirgends drauf gestoßen (hab gehofft eine tensorflow.dll zu finden).

Bei dem Sterneentsättigen kann ich dir nur bedingt weiterhelfen 😉... rein intuitiv habe ich für mich festgestellt, dass da bessere Ergebnisse rauskommen wenn ich das vor der Deconvultion anwende. Die Mathematik dahinter ist mir fremd 😉

CS

Ralph
 
Oben