Rolf_Hempel
Aktives Mitglied
Vor ein paar Monaten habe ich mit der Entwicklung einer neuen Stacking-Software für Objekte des Sonnensystems (Mond, Sonne, Planeten) begonnen, unter Verwendung aktueller Softwaretechnologie. Gerade ist ein erster Prototyp fertig geworden. Er enthält alle Komponenten, die zum Stacken eines Videos oder einer Sammlung von Einzelaufnahmen erforderlich sind. Lediglich eine graphische Benutzerschnittstelle fehlt noch, so dass die Ausführung einstweilen nur im Batchbetrieb möglich ist. Der gesamte Source-Code ist auf Github frei zugänglich (Open Source). Zusätzlich plane ich, alle algorithmischen Details zu veröffentlichen.
Bisher gibt es drei Softwarelösungen zum Stacken: Registax, AviStack2 und AutoStakkert!3. Die ersten beiden sind seit über acht Jahren nicht mehr gepflegt worden, so dass meines Wissens AutoStakkert!3 das einzige noch aktive Projekt ist. (Ich habe zum Beispiel sehr gerne AviStack2 für meine Mondaufnahmen benutzt, aber seit ich auf Windows 10 umgestiegen bin, kann das Programm meine Input-Files nicht mehr öffnen.)
Wir sollten den Autoren der existierenden Programme dankbar sein für die vielen Stunden, die sie in die Entwicklung ihrer Programme und die Bereitstellung der Executables investiert haben. Ich sehe aber ein großes Problem in der Abhängigkeit von einer einzigen Closed-Source-Software und ihrem Entwickler. Um diese Abhängigkeit zu überwinden, habe ich mich entschlossen, ein eigenes Open-Source-Projekt zu beginnen. Da keiner der früheren Autoren den Source-Code veröffentlicht hat, ganz zu schweigen von den zugrundeliegenden Algorithmen, war der Start etwas mühsam. Glücklicherweise ist die Entwicklung eines Stacking-Programms aber keine "Rocket-Science", und so habe ich nach ein paar Monaten den obengenannten Prototypen fertiggestellt. In meinen bisherigen Tests produziert er Bilder gleicher Qualität wie AutoStakkert!3, aber ich bin sicher, dass bei Tests mit weiteren "pathologischen" Anwendungsbeispielen noch einige Justierungen erforderlich sein werden.
Den Prototypen habe ich in Python geschrieben. Er ist also noch nicht optimiert hinsichtlich Ressourcennutzung (CPU, RAM). Tatsächlich braucht er für dasselbe Ergebnis auf meinem Laptop im Moment noch etwa zwei mal so lange wie AutoStakkert!3. Ich habe noch nicht entschieden, welche Programmiersprache und welches GUI-Toolkit für die endgültige "Produktionssoftware" zum Einsatz kommen wird. Optimale Performance, gute Wartbarkeit und eine moderne Benutzerschnittstelle werden die wichtigsten Kriterien sein.
Mit dem folgenden Beispiel möchte ich die Leistungsfähigkeit des Prototypen illustrieren. Das Video habe ich mit meiner ASI120MM-S am C11 aufgenommen. Die Luft war ziemlich unruhig, so dass viele kleinräumige Verzerrungen im Video die Qualität des Multi-Punkt-Alignments herausforderten. Ich habe 10% der 1785 Frames gestackt. Das Ergebnis habe ich dann noch mit Wavelets in AviStack2 geschärft. Hier ist das ganze Beispielbild:
Zum Vergleich mit AutoStakkert!3 habe ich dasselbe Video auch mit diesem Programm bearbeitet, unter Verwendung einer ähnlichen Zahl von Alignment-Punkten (ca. 450). Schärfung wieder in AviStack2 mit denselben Einstellungen wie oben. Hier das Ergebnis:
Um eventuelle Unterschiede besser sichtbar zu machen, habe ich dann beide Bilder auf 200% vergrößert und kritische Zonen herausgeschnitten. Hier ist erst einmal Sinus Iridum und Umgebung. Die Details auf dem strukturarmen Mareboden sind eine Herausforderung für das Programm, weil es dort kaum Anhaltspunkte für die Verschiebungsberechnung findet. (Das scharfe "gestackte" Bild steht ja noch nicht zur Verfügung!) Zunächst die Version mit meinem Programm:
Und hier die von AutoStakkert!3:
Das nächste Beispiel zeigt die Zone nahe dem Mondrand. Das Problem hier ist das Fehlen von Schatten und der abrupte Übergang zum Hintergrund. Wieder zunächst mein Programm:
Und jetzt AutoStakkert!3:
Meiner Meinung nach sind die Unterschiede marginal. Das PSS-Bild ist vielleicht etwas weniger "körnig", so dass es ein wenig mehr Schärfung vertragen könnte. Aus Gründen der Fairniss habe ich das aber nicht gemacht.
Wir wird es jetzt weitergehen? Nun, bisher habe ich den gesamten Code für den Prototypen selbst geschrieben. Mein Ziel ist es aber, das Projekt zu einer Community-Aktion zu machen, zu der andere professionelle Softwareentwickler beitragen können. Ein Freund aus Dänemark hat schon ein Modul zum Import von SER-Videos geschrieben, das bald in den Code integriert werden soll. Als Leiter eines Software-Forschungsinstituts im Deutschen Zentrum für Luft- und Raumfarht (DLR) hoffe ich natürlich auf Hilfe durch den einen oder anderen meiner Mitarbeiter. Andere Freiwillige sind aber natürlich auch willkommen!
Wie sagt man so schön: "Stay tuned" für weitere Details zum Projekt.
Beste Grüße
Rolf
Bisher gibt es drei Softwarelösungen zum Stacken: Registax, AviStack2 und AutoStakkert!3. Die ersten beiden sind seit über acht Jahren nicht mehr gepflegt worden, so dass meines Wissens AutoStakkert!3 das einzige noch aktive Projekt ist. (Ich habe zum Beispiel sehr gerne AviStack2 für meine Mondaufnahmen benutzt, aber seit ich auf Windows 10 umgestiegen bin, kann das Programm meine Input-Files nicht mehr öffnen.)
Wir sollten den Autoren der existierenden Programme dankbar sein für die vielen Stunden, die sie in die Entwicklung ihrer Programme und die Bereitstellung der Executables investiert haben. Ich sehe aber ein großes Problem in der Abhängigkeit von einer einzigen Closed-Source-Software und ihrem Entwickler. Um diese Abhängigkeit zu überwinden, habe ich mich entschlossen, ein eigenes Open-Source-Projekt zu beginnen. Da keiner der früheren Autoren den Source-Code veröffentlicht hat, ganz zu schweigen von den zugrundeliegenden Algorithmen, war der Start etwas mühsam. Glücklicherweise ist die Entwicklung eines Stacking-Programms aber keine "Rocket-Science", und so habe ich nach ein paar Monaten den obengenannten Prototypen fertiggestellt. In meinen bisherigen Tests produziert er Bilder gleicher Qualität wie AutoStakkert!3, aber ich bin sicher, dass bei Tests mit weiteren "pathologischen" Anwendungsbeispielen noch einige Justierungen erforderlich sein werden.
Den Prototypen habe ich in Python geschrieben. Er ist also noch nicht optimiert hinsichtlich Ressourcennutzung (CPU, RAM). Tatsächlich braucht er für dasselbe Ergebnis auf meinem Laptop im Moment noch etwa zwei mal so lange wie AutoStakkert!3. Ich habe noch nicht entschieden, welche Programmiersprache und welches GUI-Toolkit für die endgültige "Produktionssoftware" zum Einsatz kommen wird. Optimale Performance, gute Wartbarkeit und eine moderne Benutzerschnittstelle werden die wichtigsten Kriterien sein.
Mit dem folgenden Beispiel möchte ich die Leistungsfähigkeit des Prototypen illustrieren. Das Video habe ich mit meiner ASI120MM-S am C11 aufgenommen. Die Luft war ziemlich unruhig, so dass viele kleinräumige Verzerrungen im Video die Qualität des Multi-Punkt-Alignments herausforderten. Ich habe 10% der 1785 Frames gestackt. Das Ergebnis habe ich dann noch mit Wavelets in AviStack2 geschärft. Hier ist das ganze Beispielbild:
Zum Vergleich mit AutoStakkert!3 habe ich dasselbe Video auch mit diesem Programm bearbeitet, unter Verwendung einer ähnlichen Zahl von Alignment-Punkten (ca. 450). Schärfung wieder in AviStack2 mit denselben Einstellungen wie oben. Hier das Ergebnis:
Um eventuelle Unterschiede besser sichtbar zu machen, habe ich dann beide Bilder auf 200% vergrößert und kritische Zonen herausgeschnitten. Hier ist erst einmal Sinus Iridum und Umgebung. Die Details auf dem strukturarmen Mareboden sind eine Herausforderung für das Programm, weil es dort kaum Anhaltspunkte für die Verschiebungsberechnung findet. (Das scharfe "gestackte" Bild steht ja noch nicht zur Verfügung!) Zunächst die Version mit meinem Programm:
Und hier die von AutoStakkert!3:
Das nächste Beispiel zeigt die Zone nahe dem Mondrand. Das Problem hier ist das Fehlen von Schatten und der abrupte Übergang zum Hintergrund. Wieder zunächst mein Programm:
Und jetzt AutoStakkert!3:
Meiner Meinung nach sind die Unterschiede marginal. Das PSS-Bild ist vielleicht etwas weniger "körnig", so dass es ein wenig mehr Schärfung vertragen könnte. Aus Gründen der Fairniss habe ich das aber nicht gemacht.
Wir wird es jetzt weitergehen? Nun, bisher habe ich den gesamten Code für den Prototypen selbst geschrieben. Mein Ziel ist es aber, das Projekt zu einer Community-Aktion zu machen, zu der andere professionelle Softwareentwickler beitragen können. Ein Freund aus Dänemark hat schon ein Modul zum Import von SER-Videos geschrieben, das bald in den Code integriert werden soll. Als Leiter eines Software-Forschungsinstituts im Deutschen Zentrum für Luft- und Raumfarht (DLR) hoffe ich natürlich auf Hilfe durch den einen oder anderen meiner Mitarbeiter. Andere Freiwillige sind aber natürlich auch willkommen!
Wie sagt man so schön: "Stay tuned" für weitere Details zum Projekt.
Beste Grüße
Rolf