Mars-Studie mit 2,8 m Brennweite

#1
Dieser Beitrag ist weniger als Konkurrenz zu den vielen hervorragenden Bildergebnissen vom Planeten Mars zu sehen, die hier in den vergangenen Wochen vorgestellt wurden, sondern eher als ein Beispiel für das, was aus scheinbar unbrauchbarem Videomaterial durch datentechnische Aufbereitung herauszuholen ist.

Das Videomaterial zu dieser Studie wurde in der Nacht vom 6. auf den 7. März gegen 01:10 MESZ mit dem 10" Schüsselteleskop und einer monochromen Chameleon-Kamera (Pixelraster 3,75 µm) bei einer Brennweite von 2,8 m aufgenommen. Alle drei Farben (RGB-Filtersatz Astronomik Typ II) wurden bei einer Belichtungszeit von 5 ms und Frameraten um 30 fps mit FireCapture aufgezeichnet. Innerhalb von jeweis 2 min wurden jeweils ca. 3600 Frames abgespeichert. Die Summenbilder wurden mit AutoStakkert! bei einer Verwendungsrate von 40% erzeugt. Hier ist eine Zusammenstellung der Ergebnisse:



In der linken Spalte ist je ein Rohbild aus den drei mit Rot, Grün bzw. Blau gefilterten Videoaufnahmen zu sehen. Bei der kurzen Belichtungszeit von 5 ms war das Blau-Video lediglich zu 16% (!) ausgesteuert. Das aus ca. 1400 Primärbildern gestackte, unbearbeitete Summenbild (mittlere Spalte) zeigt aber bereits die zu erwartenden Merkmale eines Blauauszugs in der Rotationsphase des Planeten zum Zeitpunkt der Aufnahme. In der rechten Spalte sind die in AutoStackert 1,5-fach vergrößerten ("Drizzle") und kontrastverstärkten ("Convolution") Farbauszüge abgebildet, aus denen schließlich die beiden unteren Farbbilder gewonnen wurden.

Dabei wurde zunächst aus dem Rotauszug (rechte Spalte, oben) mit Hilfe von Fitswork (FW) ein nochmals um 40% nachvergrößertes (dSinc) und nachgeschärftes (Wavelets) Luminanzbild erzeugt. Parallel dazu wurden alle drei Farbauszüge (rechte Spalte) ohne weitere Nachschärfung zu einem RGB-Bild zusammengesetzt. Im letzten Schritt wurde das Luminanzbild mit dem RGB-Bild zu einem R+RGB-Komposit kombiniert. Nach einer leichten Farbkorrektur entstand schließlich das kleinere Farbbild, links unten.

Angeregt durch seine in bemerkenswerter Weise durchgezeichnete Marsaufnahme habe ich Tommy Nawratil um den Versuch einer weiteren Nacharbeitung meines Luminanzbildes mit seinem Photoshop-Workflow (PS) gebeten. Ich war erstaunt, welche weitere Steigerung der Durchzeichnung ihm gelungen ist, und habe das von ihm nachbearbeitete Luminanzbild mit demselben, nur in der Größe angepassten RGB-Bild zu dem rechts unten gezeigten Farbbild zusammengesetzt.

Beim Anblick der Rohbilder aus den Aufnahme-Videos (linke Spalte) hätte ich mir nicht vorstellen können, dass diese genügend Information für die Erzeugung des hier gezeigten Endresultats enthalten. Unter diesem Eindruck bin ich zur Zeit noch nicht sicher, ob und ggf. welche Art von Artefakten sich in dem Bild verstecken. Ich werde dieser Frage jedenfalls mit Interesse nachgehen.

Gruß, Jan
 
#3
Hallo Jan,

Sehr interessante Studio und ein schönes Ergebnis. Für mich noch interessanter der PS-Workflow. Wie es scheint habe ich bildbearbeitungstechnisch schon lange den Anschluß verpasst. Ich habe nicht gewusst, dass es mittlerweile Usus ist, nur bestimmte Tonwerte einer Aufnahme zu schärfen, oder verstehe ich den Workflow falsch... ?)

Gruß,
Torsten
 
#4
Hallo Jan,

das ist ein sehr interessanter Vergleich!

Verwendest Du für Planetenaufnahmen immer AutoStakkert! oder erzielst Du mit Registax oder Avistack2 gleiche Ergebnisse?

Ich habe bisher immer nur ca. 10% der Frames verwendet. Hast Du einmal einen Versuch mit weniger Frames unternommen? Vielleicht kommen da noch mehr Details zum Vorschein.

Gibt es eine Möglichkeit, mal Dein Video anzuschauen? Mich würde ein Vergleich sehr interessieren!

CS
Ralf
 
#5
hallo,

sehr interessante Studie, jetzt ist mir auch klar warum der Blaukanal bei meinen OSC Farbaufnahmen immer zu kurz kommt :)

Lieber Torsten, das verstehste richtig! Dass ich die Bildinhalte selbst dazu benutze um selektiv zu bearbeiten heisst aber nicht dass es Usus ist. Es ist nichts anderes als eine versteckte Maskentechnik, wie sie schon immer in der Deepsky und Planeten Bildbearbeitung verwendet wird.

Ob und wie viel davon zulässig ist, und das Ergebnis eine wissenschaftlich präzise Dokumentation der Realität ist, diese Diskussion ist so alt wie diese Technik selbst. Jeder muss schliesslich selbst entscheiden wie weit man geht, und es ist klar dass das Ergebnis nicht 100% kongruent mit dem "tatsächlichen" Planetenbild sein kann. Schliesslich ist auch der Prozess der Bildgewinnung dank Atmosphäre, Rauschen und Chipeigenschaften nicht 100% reproduzierbar. Durch die extreme Schärfung sieht man das natürlich besser als in weniger geschärften Aufnahmen, insbesondere wenn man mit tatsächlich höher aufgelösten Aufnahmen von Raumsonden vergleicht. Diese Techniken fügen jedoch kaum künstlichen Bildinformationen ein, wenn man mit Gespür drangeht, es wird ja nicht herumgemalt.

Jans Rohbild ist aber auch von sehr hoher Qualität, das gestehe ich ganz neidlos zu - Gratulation!

lg Tommy
 
#6
Hallo Jan,

sehr interessant und tolles Ergebnis! Beachtlich was mit 2,8m möglich ist. Ich mach Mars meistens mit 4m und denk mir, dass das knapp ist.

cs

Werner
 
#7
Hallo zusammen,

vielen Dank für Eure Kommentare!

Zitat von DonMatu:
... das gibt mir Hoffnung doch noch was aus meinen Aufnahmen rauszuholen, ...
Christian: Das kann ich gut nachempfinden und ich bin Tommy sehr dankbar, dass er mich anhand dieses Beispiels auf die erweiterten Möglichkeiten der Bildbearbeitung aufmerksam gemacht hat. Filter? - Meine besseren Ergebnisse hatte ich bislang immer ohne Farbe. Die Farbgebung ist oft sehr individuell und spekulativ.


Zitat von TorstenEdelmann:
Für mich noch interessanter der PS-Workflow. Wie es scheint habe ich bildbearbeitungstechnisch schon lange den Anschluß verpasst.
Torsten: Das geht mir genauso. Den von Tommy protokollierten PS-Workflow kann ich mangels PS leider gar nicht nachvollziehen. Es stimmt mich aber hoffnungsvoll zu sehen, dass mit dem vorhandenen Material noch erkennbar mehr geht. Glücklicherweise habe ich alle Videos aus den verganngenen Jahren auf DVDs archiviert ...


Zitat von RaKo01:
Verwendest Du für Planetenaufnahmen immer AutoStakkert! oder erzielst Du mit Registax oder Avistack2 gleiche Ergebnisse?
Ralf: In vielen Fällen habe ich auch Registax und AviStack mit zufriedenstellenden Ergebnissen angewendet. Auf meiner Website habe ich das in den meisten Fällen dokumentiert. An einem Beispiel mit Jupiter hatte ich auch mal einen unmittelbaren Vergleich zwischen AutoStakkert! und AviStack1 angestellt. Z.Z. bin ich ganz gut auf AS! eingeschossen.

Zitat von RaKo01:
Ich habe bisher immer nur ca. 10% der Frames verwendet. Hast Du einmal einen Versuch mit weniger Frames unternommen? Vielleicht kommen da noch mehr Details zum Vorschein.
In diesem Falle hatte ich auch 80% und 20% probiert und fand das Optimum bei 40%. Die Auswahl hängt nach meiner Erfahrung sehr von der Art des Seeings ab. Wenn die Videos in größerem Umfang "Geisterbilder" enthalten, selektiere ich vorzugsweise sogar von Hand, siehe Beispiel Kopernikus (etwas weiter unten im Tread). Mehr Detail würde ich im übrigen bei der aktuellen Marsaufnahme im Hinblick auf die Sichtbedingungen und das Auflösungsvermögen des Spiegels gar nicht erwarten.

Zitat von RaKo01:
Gibt es eine Möglichkeit, mal Dein Video anzuschauen?
Habe gerade mal einen GIF-Auszug mit den ersten 100 Bildern des Rot-Videos präpariert. Leider stimmt die Bildrate nicht, die Video-Aufnahme lief mit ca. 30 fps.


Zitat von tommy_nawratil:
... jetzt ist mir auch klar warum der Blaukanal bei meinen OSC Farbaufnahmen immer zu kurz kommt :)
Tommy: Da wollte ich Dich schon fragen, mir ist nämlich die Begründung nicht ganz klar.

Zitat von tommy_nawratil:
Jans Rohbild ist aber auch von sehr hoher Qualität
Kein Wunder, das Bild, welches ich Dir zur Nachbearbeitung geschickt hatte, war ja zuvor schon in AutoStakkert und Fitswork bearbeitet worden. An dieser Stelle nochmal ein großer Dank an Dich für die große Nachhilfe i.S. Bildbearbeitung!

Gruß, Jan
 
#8
Zitat von prokyon:
Beachtlich was mit 2,8m möglich ist. Ich mach Mars meistens mit 4m und denk mir, dass das knapp ist.
Hallo Werner,

Meine Kamera (Chameleon von Point Grey) ist mit einem Pixelraster von 3,75 µm ausgestattet. Mit den 5,6 µm der DMK brauchst Du bei 10" schon eher 4 m Brennweite für das volle Auflösungsvermögen, siehe auch hier die "Faustformel" von Peter Müller.

Dank und Gruß, Jan
 
#10
Hallo Tommy,

Es ist nichts anderes als eine versteckte Maskentechnik...
Du hast ja sicher schon bemerkt, dass ich diesbzgl. noch hinter dem Mond lebe, denn mir sind keine "versteckten Maskentechniken", bekannt, die man bei Planetenaufnahmen einsetzt. Die Luminanz-Technik fällt aus meiner Sicht nicht in diese Kategorie, denn dort wird ja das gesamte Bild verwendet und nicht ein selektiv ausgeschnittener Bereich wir bei der Maskentechnik.

Natürlich hast Du Recht, dass jeder selbst entscheiden muss, welche Techniken er bei der Bearbeitung einsetzt. Auch klar, dass das Ergebnis immer nur eine größtmögliche Annäherung an die Realität sein kann. Nur sollte man aus meiner Sicht dabei deutlich unterscheiden zwischen beeinflußbaren Faktoren (Bildbearbeitung) und Faktoren auf die wir keinen Einfluß haben (Seeing etc).

Viele Grüße,
Torsten
 
#11
Zitat von Jan_Fremerey:
... bin ich zur Zeit noch nicht sicher, ob und ggf. welche Art von Artefakten sich in dem Bild verstecken. Ich werde dieser Frage jedenfalls mit Interesse nachgehen.
Wie gelegentlich schon an anderen Stellen bemerkt, fehlt mir in dem aktuellen Bild ein spezielles Indiz, welches Artefakte prinzipiell kennzeichnet, nämlich das Auftreten von gleichartigen Mustern an verschiedenen Stellen des Bildes. Für mich deutet sich lediglich im Randbereich der nördlichen polaren Grauzone so etwas wie ein Streifenmuster an, welches sich allerdings an keiner anderen Stelle der Planetenoberfläche wiederfindet.

In den vergangenen Tagen habe ich ein wenig die Einsendungen bei ALPO-Japan verfolgt und konnte dort bisher nur ganz wenige Aufnahmen finden, in denen die beschriebene Gegend überhaupt Strukturen zeigt. Am nächsten kommt hier noch die C11-Aufnahme von Alfredo Vidal aus Katalonien, die - allerdings bei gut 8 m Brennweite - fast zur gleichen Zeit entstand wie meine. Hier findet man in demselben Gebiet zumindest andeutungsweise dieselben Strukturen vor wie in meiner Aufnahme. Insoweit sehe ich meine Bedenken hinsichtlich "versteckter Artefakte" zunächst einmal entkräftet.

Wenn einem von Euch noch andere Quellen bekannt sein sollten, wäre ich für einen entsprechenden Hinweis dankbar.

Gruß, Jan
 
#12
hallo Jan,

hier hast du noch ein Vergleichsbild, ich hatte in der Nacht vom 6. zum 7. mit dem 8" Newton draufgehalten:

https://lh6.googleusercontent.com/-.../53QKW3RvrCA/s340/Mars_20120306_AlCCDs_8N.jpg

Die Qualität deiner Rohdaten hab ich nicht erreicht, und mit 8" ist auch die Auflösung nicht so gross. In der Schärfung hab ich deshalb nicht so voll durchzeichnen können. Trotzdem interessant der Vergleich, weil eben ganz andere Rohdaten und doch viel Kongruenz.

Zur "versteckten Maske": Ist mein eigener Terminus, wenn man nur einen gewissen Bereich der Tonwerte bearbeitet ist es gleichbedeutend, als wenn man eine Maske über das Bild legt welche nur diese Tonwerte beinhaltet. "Echte" Maskentechniken verschiedener Art für Planetenbearbeitung, auch unter Ausnutzung des Bildinhaltes zum Erstellen der Masken, finden sich einige z.B. in "Photoshop Astronomy" von Scotty Ireland.

lg Tommy
 
#13
Hallo Tommy,

vielen Dank für das Vergleichsbild. Das ist doch sehr gut für 8". In der zentralen Zone ist die Durchzeichnung der hellen Flecken sogar besser. - Sag doch bitte nochmal, warum das Blau bei Deiner Farbkamera nicht durchkommt.

Eine weitere interessante Vergleichsaufnahme wurde gerade von "Saturntobi" vorgestellt. In der scheint mir auch noch mehr drinzustecken.

Zitat von tommy_nawratil:
Zur "versteckten Maske": Ist mein eigener Terminus, ...
Das ist in der Tat keine abwegige Kennzeichnung! Die selektive Anhebung der Gradation in bestimmten Bereichen der Grauskala wird ja auch von einigen anderen Bildbearbeitungsprogrammen angeboten, und auch die "unscharfe Maskierung". Beide Techniken fallen ja offensichtlich auch in die von Dir angesprochene Kategorie.

Gruß, Jan
 
#14
hallo Jan,

na weil man bei einer OSC den Blaukanal nicht länger belichten kann als die anderen ;-)

Die unscharfe Maske stammt noch aus analogen chemischen Filmzeiten und betrifft eigentlich das ganze Bild, wiewohl eine Kontrastverstärkung hauptsächlich an den Kanten bemerkbar wird. Es wurde eine invertierte unscharfe Kopie über das eigentliche Bild gelegt (genannt Maske), und dann belichtet und kontrastverstärkt. Der Meister der damit unglaubliche Astrofotos schuf war war David Malin. Wenn man aber eine grosse Pixelzahl wählt (die Maske sehr unscharf macht) dann werden auch Helligkeitswerte in flächigen Strukturen verändert, sehr nützlich um Kontraste in ziemlich gleichmässig helle Gebiete zu bringen, z.B. Mondmaria. Die unscharfe Maske ist also nicht eine Maske in dem Sinn, dass Bildteile davon unberührt bleiben wenn man sie so anwendet. Und kann natürlich mit Hilfe einer normalen Maske aus- und eingeblendet werden, sehr üblich in der Deepsky Fotografie, wo man nur das Objekt aber nicht das Hintergrundrauschen schärfen will. Oder man nimmt eine versteckte Maske ;-)

Wer es in Photoshop oder sonstwo nachmachen will:
http://blende-64.de.to/technik-unscharfmaske.html

lg Tommy
 
#15
Zitat von tommy_nawratil:
na weil man bei einer OSC den Blaukanal nicht länger belichten kann als die anderen ;-)
Hallo Tommy,

das dürfte doch m.E. noch kein ausreichender Grund sein! In der hier gezeigten Marsaufnahme habe ich alle drei Farbaufnahmen mit 5 ms belichtet, daher ist das Blau-Video auch so dunkel, siehe linke Spalte. AutoStakkert stellt die Summenbilder automatisch auf gleiche Helligkeit ein, wenn man diese Funktion nicht abwählt, siehe mittlere und rechte Spalte. In meinem Farbkomposit musste ich am Ende sogar Blau um 10% zurücknehmen und Rot um 10% heraufsetzen, um die Farbbalance hinzubekommen. Vielleicht lässt sich aber bei einer OSC nicht so einfach mit den Farbkanälen spielen, ohne dass die ganze Balance verloren geht?

Dank Dir für die Erläuterungen zur Unscharfmaske!

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
#16
Zitat von Jan_Fremerey:
Hallo Tommy, sehr gelungen und kontrastreich in der Feinzeichnung Dein Mars - gratuliere! Vielleicht hat hier doch die kurze Belichtungszeit mitgeholfen ...
Inzwischen bin ich auch weiter der Frage nachgegangen, inwieweit es sinnvoll war, eine Belichtungszeit von 5 ms einzustellen, um die Bewegungsunschärfe im Bild infolge der Luftunruhe (Seeing) möglichst weitgehend zu reduzieren. Vielfach wird ja hier die Meinung vertreten, dass es nicht nötig sei, kürzer als 1/30 s zu belichten.

Zur Aufklärung dieser Frage habe ich aus den ersten 10 Primärbildern des Rot-Videos meiner aktuellen Aufnahme eine kleine GIF-Animation zusammengestellt:



Die obere Animation zeigt die ersten 8 Bilder aus dem Video in unveränderter Form, nur die Helligkeit wurde angepasst. Die mittlere Bildfolge entstand durch Überlagerung der oberen Bilder mit dem jeweils unmittelbar folgenden Originalbild, und in der unteren Folge wurde zusätzlich noch das jeweils übernächste Originalbild einbezogen.

Während die obere Animation also die mit 5 ms Belichtungszeit aufgenommene Bildfolge wiedergibt, simuliert die mittlere Animation näherungsweise eine mit 30 ms aufgenommene, und die untere eine mit 60 ms aufgenommene Bildfolge.

Es ist deutlich erkennbar, dass die obere Animation unruhiger ist und - allerdings auch bei erhöhtem Rauschanteil - gleichzeitig feinere Details offenbart als die darunterliegenden. Eine Belichtungszeit von 30 ms hätte somit unter den konkreten Bedingungen zur Aufnahmezeit vermutlich bereits zu einer Seeing-bedingten Bewegungsunschärfe in den Originalbildern des Videos geführt, die durch spätere Stackprozesse nicht mehr ausgeglichen werden kann.

Meine Vermutung, dass die Mars-Aufnahmen von Tommy Nawratil und mir nicht zuletzt aufgrund der von uns gewählten kurzen Belichtungszeiten eine relativ hohe Detailauflösung zeigen, sehe ich durch die hier gezeigte Gegenüberstellung bekräftigt.

Gruß, Jan
 
#17
Je kürzer desto besser.
Das ist bei Deepsky genauso - seeing bläst auch hier die Sterne auf genaso wie es durch die Bewegungsunschärfen das Bild verschmiert.
Man muss das ja nur ins Extreme denken.
Mars mit einer 1/1000s oder mit 1s gefilmt - Ergebnis ist klar.
 
#19
Hi Jan,
das bezweifel ich. Ja du hast da eine Aufnahme mit einer schlechten Venus - und?
Diese Doppelbilder würden doch sowieso aussortiert werden und der (gute) Rest wäre einfach detaillierter.
Du willst doch nicht der Atmosphäre das stacken überlassen ;-)
 
#21
Moin.
Hochinteressanter Thread!
Zum Letzten zuerst: Die Atmosphäre, das Seeing, setzt einfach Grenzen. Auch der Verkürzung der Belichtungszeit. Selbst wenn es technisch möglich wäre, stieße ich damit irgendwann in den Bereich einer permanenten Bilddistortion vor, die keine vollständige Wiederherstellung mehr erlauben würde; es sei denn, ich würde "Speckle-mäßig" das Seeing nacherfassen können.
Wir müssen also wohl weiter mit einer bestimmten "Verschmierung" leben.

Grundsätzlich zu den Ergebnissen der Tests überraschen mich die Bilder natürlich schon sehr - und machen gleichzeitig Hoffnung darauf, dass ich bei vielen Bildern nur durch mangelnde Ausarbeitung nicht zu den Zufriedenheitsgraden gelangt bin, die ich mir gewünscht hätte. Oft sehe ich die Videos am Monitor und erkenne in vielen Bilder bereits Mengen an Details, die mich hoffen lassen, zu einem gut aufgelösten Bild zu kommen. Die Ergebnisse entsprechen dem leider oft nicht, egal ob ich mit kleinen oder größeren Verwendungsraten arbeite, Giotto, Avistack oder Autstakkert ansetze. Mal geht's bei dem einen besser, mal bei dem anderen.
Sicher zu wesentlichen Teilen eine Frage ausgefeilter und erfahrener Bedienung. So scheitere ich derzeit regelmäßig mit AviStack2 an Venus und auch Mars, solange die Luft mäßig bis schlecht ist. Nichts Verwertbares, während Giotto hier unkompliziert und sauber arbeitet, aber wahrscheinlich nicht zum besten Ergebnis gereicht, denn wenn es was wird, sind die AviStack-Bilder immer sichtbar schärfer als die aus Giotto.

Als durchaus erfahrener Photoshopper würde mich natürlich Tommys Workflow sehr interessieren. Kann man den erfahren? Ich würde ihn gern mal bei eigenen Bildern anwenden, zumal ich mein Finishing (RG und LRGB-Zusammenbau) im in PS mache.

Ansonsten hoffe ich, dass sich irgendwann mal etwas mehr Zeit findet, um das von Jan beschriebene Verfahren mal durchzuexerzieren. Mit dem C 9.25 liege ich ja in der Öffnung in dem Bereich. Aber so ein Mars ist mir nur in Jahren mit deutlich mehr Mars-Durchmesser gelungen. Was nicht am Teleskop liegt, das hat sich bei ausreichend Seeing schon gezeigt.

LG and CS (soll ja ab Wochenmitte kommen)
Rudolf
 
#22
Hallo Rudolf,

vielen Dank für Deine Anmerkungen, die ich aus eigener Erfahrung weitgehend bestätigen kann!

Zitat von Canonist:
Als durchaus erfahrener Photoshopper würde mich natürlich Tommys Workflow sehr interessieren. Kann man den erfahren?
Den Workflow hatte Tommy freundlicherweise vor ein paar Tagen in Verbindung mit seiner aktuellen Marsaufnahme beschrieben.

Gruß, Jan
 
#23
Hey Jan,
Vielen Dank für den Hinweis, das hatte ich noch gar nicht gesehen. Leider ist es kein reiner Photoshop Workflow, sondern es sind Schritte mit Hilfe zusätzlicher Software enthalten. Zudem gehe ich mal davon aus, dass schon Schritt 2 mindestens ein CS5 erfordert. Ältere Versionen kennen diese Rauschminderungsvariante nicht.
Dennoch verstehe ich, wie Tommy vorgeht und kann es mindestens in Teilen auch nacharbeiten.
Soweit also schon mal ein Stück weiter.
LG
Rudolf
 
#24
hallo Rudolf und alle,

ganz wichtig ist eine Deconvolution wie ich sie mit Focus Magic mache (gibts auch als PS plugin). Mit wavelets komme ich nicht so weit, zumindest nicht mit dem was Registax, Avistack oder Pix Insight erlauben.

Ich habe CS4, da gibts den Filter bereits unter Filter/Rauschfilter/Rauschen reduzieren.

@ Peter: Im Deepsky Bereich MUSS man sogar so lange belichten, dass das Seeing sich statistisch verteilt, sonst könnte man nicht sinnvoll schärfen. Sogar beim Guiding sollte man so lange belichten dass das Seeing sich rausmittelt.

Zu Jans Bemerkung über die Belichtungszeit: Eigentlich sollte es egal sein ob das Seeing sich bereits auf den Aufnahmen oder erst beim Stacken des Videos statistisch verteilt. Der Knackpunkt ist die Qualitätssortierung, die kontrastreichere Aufnahmen bevorzugt. Das sind zwar immer die weniger verschmierten, aber die Oberflächendetails "tanzen" in den Einzelbildern hin und her, und sind im Summenbild eben auch statistisch verteilt.

Die Ansicht z.B. Peter Wellmanns, man "soll keine Belichtungszeit durch zu kurze Belichtungszeit vergeuden", nämlich wenn nämlich durch die begrenzte Framerate Totzeit entsteht, könnte durchaus diesen Hintergrund haben.

Ich persönlich nehme aber auch lieber die kürzest mögliche Zeit und sortiere die schärfsten Bilder schon mal per Hand aus. Das wird mit grundsätzlich verschmierten Bildern schwierig.

Wahrscheinlich ist der Unterschied kleiner als man denkt, ich probier das demnächst mal aus: Mars mit 8ms gegen Mars mit 30ms Einzelbelichtung.

lg und cs, Tommy
 
#25
Zitat von tommy_nawratil:
Eigentlich sollte es egal sein ob das Seeing sich bereits auf den Aufnahmen oder erst beim Stacken des Videos statistisch verteilt. Der Knackpunkt ist die Qualitätssortierung, die kontrastreichere Aufnahmen bevorzugt.
Hallo Tommy,

Das genau ist nach meiner Auffassung nicht egal, denn mit der längeren Belichtungszeit erhöht sich ja die Gefahr, dass ein scharfes Kurzzeitbild durch ein unmittelbar beanachbartes Bild minderer Qualität oder auch nur durch eine geringfügige Platzverschiebung des Nachbarbilds verschmiert wird. Damit wird das gute Bild unwiderruflich "begraben" und steht für eine anschließende Qualitätssortierung möglicherweise gar nicht mehr zur Verfügung. Wie stark sich benachbarte Einzelbilder mit einem zeitlichen Abstand von lediglich 30 ms voneinander unterscheiden, das ist ja sehr schön in der oben gezeigten Animation zu sehen.

Zitat von tommy_nawratil:
... aber die Oberflächendetails "tanzen" in den Einzelbildern hin und her, und sind im Summenbild eben auch statistisch verteilt.
Wenn ich aber bevorzugt scharfe Details stacke, sollte am Ende etwas schärferes herauskommen, als wenn ich bereits verschmierte Bildinhalte überlagere. Im übrigen sollte ja das Multipoint-Alignment-Verfahren zur Einengung der statistischen Abweichungsbreite führen.

Zitat von tommy_nawratil:
Mars mit 8ms gegen Mars mit 30ms Einzelbelichtung
Der Unterschied wird vermutlich deutlicher herauskommen als in der Animation. Dort habe ich ja zur Simulation der 30-ms-Belichtung nur zwei mit 5 ms belichtete Frames übereinanderkopiert, während man bei einer "Dauerbelichtung" von 30 ms praktisch sechs solcher 5-ms-Frames "auf einen Haufen wirft". Bin gespannt, was bei Deinem geplanten Vergleichsexperiment herauskommt.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
#26
hallo Jan,

ich bin eigentlich auch deiner Ansicht, versuche mich aber als Advocatus Diaboli:

bei der Qualitätssortierung in Registax finde ich schon unter den besten Frames ganz links welche die vom Seeing völlig verzerrt und zerfetzt sind. Mehr davon unter den schlechten Frames rechts, aber sie sind auch links vertreten. Entweder ich bin zu dumm die Parameter richtig einzustellen, oder die Qualitätssortierung funktioniert eben nur so ungefähr. In Avistack habe ich gar keinen Zugriff auf die sortierten Frames, kann nur anhand des Ergebnisses beurteilen ob meine Parameter gut waren.

Die selektierten Frames mit schärferen Details haben das Problem dass die schärferen Details hin und her hüpfen, sich manchmal sogar mehrfach abbilden wie du auch hervorgehoben hast. Die Software weiss nicht wohin diese Details genau gehören, sie folgt der Statistik. Genau wie das Seeing ;-)

Multipointstacking - Hier ein Vergleich an Jupiter:
einmal mit Registax aufs Planetenscheibchen gestackt
https://lh4.googleusercontent.com/-...605/Jupiter_Ganymed_20100922_10N_Registax.jpg

und dann dasselbe OSC Video mit Avistack 1.81
https://lh6.googleusercontent.com/-...wMMisE8/s583/Jupiter_Ganymed_20100922_10N.jpg

Die Unterschiede sind marginal, und ich bin ausserstande zu beantworten welches Bild der "Realität" eher entspricht.

Schaun wir mal was lange gegen kurze Belichtungszeit ergibt, ich bin sicher dass solche Tests schon gemacht wurden.

lg Tommy
 
#27
Moin zusammen.
Die gute alte Deconvolution – habe ich seit den Zeiten von MaximDL nicht mehr benutzt. Nun also vielleicht wieder mit dem Photoshop-Plugin, muss ich mir wohl mal besorgen.

Den Widerspruch zur Wellmann-Aussage wollte ich auch schon ansprechen. Gefühlsmäßig sagt der Bauch, je kürzer, desto besser - mindestens so lange es nicht auf der anderen (technischen) Seite z.B. das Rauschen zum Problem werden lässt. Auf der anderen Seite hat sich mindestens bei mir aus Erfahrung so ein Mittelweg als beste Lösung erwiesen. Die kürzestmögliche Belichtung hat nicht unbedingt zum besten Ergebnis geführt. Es bräuchte aber sicher noch deutlich mehr Versuche unter verschiedensten Bedingungen und mit unterschiedlichen Kameras, um zu einem klaren Ergebnis zu kommen.

Zu wenig verstehe ich bislang auch, wie meine Stacking-Programme - zumal unter Veränderung von Parametern - zu den Ergebnissen kommen. Eigentlich wollte ich das auch nie verstehen müssen, ich brauche ja nur ein Tool, das mir die Arbeit abnimmt. Aber es ist wohl wie immer: Willst Du das Optimum erreichen, musst Du Dein Werkzeug auch bis ins Detail beherrschen....

Tommys Beschreibung der "tanzenden Details" kann ich gut nachvollziehen. Hatte die Tage "Fluss-Seeing". Da waren sehr wohl detailreiche, aber stark verzerrte Bilder dabei. Selbst AviStack ist dann wohl irgendwann mal überfordert, das noch genau übereinanderzubekommen, also wird immer stärker ausgemittelt. Bei Giotto ist das noch etwas ausgeprägter zu beobachten, weshalb dort bei schlechterer Luft die Bilder auch mehr hinter AviStack zurückbleiben.

Bei AviStack kann ich ja über die Begrenzung der Differenz zwischen den beiden Referenzpunkten die Qualitätssortierung beeinflussen. Ich habe das bis zu einem als vertretbar angesehenen Maß auch probiert. Doch die Reduzierung auf die besten 20 Prozent hat bei mir nicht zu einem besseren, sondern eher in verschiedenen Durchläufen erratischen Ergebnissen mit Randdefekten geführt.

Handverlesen ist sicher eine Maßnahme, aber das ist mindestens mir entschieden zu zeitintensiv; so käme ich künftig nur noch zu einem Bild pro Abend.

LG
Rudolf
 
#28
Zitat von tommy_nawratil:
bei der Qualitätssortierung in Registax finde ich schon unter den besten Frames ganz links welche die vom Seeing völlig verzerrt und zerfetzt sind. ... In Avistack habe ich gar keinen Zugriff auf die sortierten Frames
Hallo Tommy,

bei AviStack kannst Du Dir unter "Films" eine qualitätssortierte Bildfolge ausgeben lassen. Sowohl in AviStack als auch in Registax finde ich ebenfalls unter den qualitativ am höchsten bewerteten Frames einen großen Anteil von unbrauchbaren, insbesondere von welchen mit Geisterbildern, sofern solche vorhanden sind. Deswegen nützt es oft wenig, wenn man die Anzahl der Bilder im Stack reduziert. Offenbar wird dort im wesentlichen nach dem Bildkontrast sortiert, und da haben nicht selten die kontrastreichen Doppelkanten der Geisterbilder gute Chancen in die Auswahl zu kommen.

Zitat von tommy_nawratil:
Die selektierten Frames mit schärferen Details haben das Problem dass die schärferen Details hin und her hüpfen, sich manchmal sogar mehrfach abbilden wie du auch hervorgehoben hast. Die Software weiss nicht wohin diese Details genau gehören, sie folgt der Statistik. Genau wie das Seeing ;-)
Das Hin- und Herhüpfen wird ja durch das Multipoint-Alignment weitgehend ausgeglichen, d.h. kontrastreiche Bilddetails werden ausgeschnitten und dann am Ort ihres häufigsten Auftretens passgenau übereinandergelegt. In diesem Punkte unterscheidet sich das Verfahren ganz wesentlich vom Seeing. Das Seeing "arbeitet" gewissermaßen ohne differenzierte Ortsanalyse vor dem Stacken! Da liegt der entscheidende Unterschied, sonst könnten wir ja gleich wieder zur Langzeitbelichtung zurückkehren.

Zitat von tommy_nawratil:
Multipointstacking - Hier ein Vergleich an Jupiter:
Wenn Dein Vergleich keinen erkennbaren Unterschied ergeben hat, dann lag das möglicherweise daran, dass Du insgesamt zu lange belichtet und dadurch Bewegungsunschärfe aufgrund der Rotationsbewegung des Planeten eingefangen hast.

Ich hatte ja selbst schon einmal einen Vergleich zwischen AviStack und AutoStakkert am Jupiter vorgestellt, und da gab es durchaus einen sichtbaren Unterschied zwischen Multipoint (AviStack) und Singlepoint (AutoStakkert) Verfahren. Hier ist nochmal die Animation:



AviStack ergab das kontrastreichere Bild im Zentrum der Planetenscheibe, offenbar weil dort die Ortszuweisung der Bilddetails aufgrund ihres relativ hohen Kontrasts einigermaßen funktionierte. Am Rand der Planetenscheibe fand AviStack anscheinend nicht genügend Kontrast für eine qualifizierte Ortszuweisung der Bilddetails. Diese "Randschwäche" der Stacks soll Michael Theusner in einem Vortrag über AviStack schon einmal in dem genannten Sinne erläutert haben.

Möglicherweise wäre mein Vergleich am Jupiter im Zentrum der Planetenscheibe noch mehr zu Gunsten von AviStack ausgefallen, wenn ich damals kürzer als 33 ms belichtet hätte, so wie jetzt mit 5 ms am Mars.

Zitat von tommy_nawratil:
Schaun wir mal was lange gegen kurze Belichtungszeit ergibt, ich bin sicher dass solche Tests schon gemacht wurden.
Da bin ich gar nicht so sicher, denn Planeten werden vorzugsweise mit besonders langen - wie ich finde oftmals überlangen - Brennweiten aufgenommen, so dass viel kürzere Belichtungszeiten als 30 ms gar nicht in Frage kommen. Ich konnte mir ja die 5 ms Belichtungszeit am Mars nur leisten, weil ich mit 2,8 m und nicht wie andere mit 6-10 m Brennweite aufgenommen habe.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
#29
Zitat von Canonist:
Gefühlsmäßig sagt der Bauch, je kürzer, desto besser - mindestens so lange es nicht auf der anderen (technischen) Seite z.B. das Rauschen zum Problem werden lässt.
Hallo Rudolf,

den Rauschabstand kann man ja verbessern, indem man mit kürzerer Brennweite arbeitet, dann hat man eine bessere Beleuchtung auf dem Kamera-Chip. Viele Planetenfreunde arbeiten aber bevorzugt mit optischer Übervergrößerung, um einen großen Abbildungsmaßstab für die Präsentation zu gewinnen. Es ist aber bekannt, dass größere Blendenzahlen als f/D = 3p/µm (Faustformel von Peter Müller mit p = Pixelraster des Kamerachips in µm) im Hinblick auf die Beugungsgrenze des Teleskops keinen Gewinn an Bilddetails bringen. Meine aktuelle Mars-Aufnahme z.B. ist 2,4-fach nachvergrößert, aber nicht schon bei der Aufnahme mit optischen Mitteln, sondern erst im Zuge der Bildbearbeitung. Mit 2,8 m Brennweite und "Blende 11" konnte ich daher die Belichtungszeit auf 5 ms reduzieren. Bei 2,4-facher optischer Nachvergrößerung hätte ich mit 6,7 m Brennweite und Blende 26 eine gleichwertige Ausleuchtung des Kamerachips und den entsprechenden Rauschabstand erst mit einer Belichtungszeit von knapp 30 ms erreicht.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
#30
hallo Jan,

"obwohl in AviStack als auch in Registax finde ich ebenfalls unter den qualitativ am höchsten bewerteten Frames einen großen Anteil von unbrauchbaren"

ja, ich fand das händische Rausschmeissen von bad frames bringt einiges bei den von Registax vorsortierten Bildern. Schauen wir mal ob und was der Versuch zutage bringt. Kann gut sein dass die Frage nicht so leicht entscheidbar ist.

Ich habe übrigens mit f/23,5 gerbeitet und in der Software 2x vergrössert ;-)

lg Tommy
 

Neustes Astronomie Foto

Diese Seite empfehlen

Oben