Jupiter vom 24.10.

Status
Es sind keine weiteren Antworten möglich.

KarlThurner

Aktives Mitglied
Hi,

nach rund einem Jahr Abstinenz hat es mal wieder sein sollen. Und prompt
bekam die neue Kamera exzellentes Seeing vor die Nase.

Schon die Rohdaten sahen recht vielversprechend aus, aber die Überraschung
kam dann beim Schärfen. In der Normalgröße (~400 Pixel) war ein 3x3-Kernel
viel zu groß. Auch beim Drizzeln mit Faktor 1.5 war 3x3 immer noch zu dick.
Erst das Hochskalieren auf Faktor 2 zeigte dann das typische Bildrauschen.

Die große Version des Jupiters bekam so 800x800 Pixel, die
Forensoftware scheint so große Bilder aber zu skalieren.
Wer sich das Bild in groß ansehen möchte, nimmt den
untenstehenden Link.

Sternwarte Diedorf
24.10.2011
DMK 21AU618.AS
Astronomik RGB

Das Bild ist ein reines RGB-Bild ohne IR-Anteil.

Link zur Grafik: http://www.astro-markt.de/tmp/jup-2011-10-23-021-024-rgb-d2-b05.jpg

Link zum Bild mit 800 x 800 Pixel


Klaren Himmel,
Karl

 
Zuletzt von einem Moderator bearbeitet:
Hallo Karl!

Das ist ja ein tolles Ding. Interessant was da auch in den arktischen- und Polarbändern an feinen Strukturen noch rüberkommt. Die Wirbelstruktur im GRF ist auch definitiv keine Einbildung, klasse.

Bleibst Du immer noch der Okularprojektion treu, oder wie kommst Du auf Deine 400 px?

Viele Grüße nach Augsburg,

Jan-David
 
Sauber sauber...
Die Schärfung ist für meinen Geschmack perfekt gelungen.
Hast Du erst geschärft und dann hochgezogen?
Welche Routinen benutzt Du zum schärfen?
Und wieviele Bilder hast Du addiert?
Und welche Bel. Zeit?
Und was für ein Spieglein hast Du da im Newton drin.
Gruß
Andreas
 
Zuletzt von einem Moderator bearbeitet:
Hallo,

@Frank: Zur Bildgewinnung nutze ich gerne den Lucam Recorder,
aber es geht natürlich genauso mit IC Capture vom Hersteller.

@JDF: Ja, bin immer noch bei der Okularprojektion. Ich habe
kaum ein paar AVI's mit gleichem Abbildungsmaßstab. Das Seeing
ändert sich teilweise recht schnell und manchmal lohnt es sich
darauf ebenso schnell zu reagieren. Außerdem habe ich
unterschiedlichste Filter, die mal mehr oder weniger Licht
durchlassen. Das alles überbrücke ich mit nur einem einzigen
Okular und mit nur einem Griff an den Projektionsadapter.

@Andreas: Je Kanal habe ich 700 Bilder aufgenommen bei 30 fps.
Verwendet davon habe ich 500. Die Ausschussquote ist vergleichsweise
sehr klein, aber das Seeing war ziemlich stabil. Zuerst werden
die Daten "hochgezogen" und dann geschärft. In Registax 6 kann
man das mit dem Drizzling machen mit einem Mausklick. Aber seit
letzten Jahr verwende ich fast nur noch AviStack2. Das kennt leider
kein Drizzling, also habe ich die Bilder vor der Behandlung
hochskaliert. Geschärft wurden die Bilder mit dem Klassiker Giotto
(Mexican Hut). Die neue Wavelett-Schärfung in Registax ist auch
sehr hübsch, aber mit Giotto bin ich effizienter, das kenne ich
lange genug ;-). Zum Spiegel: Galaxy Optics, USA.

Ansonsten danke für die netten Kommentare, Grüße auch an Mario.

cs,
Karl
 
Zuletzt von einem Moderator bearbeitet:
Hallo Karl
Super starke Aufnahme, sehr viele Details und schöne Bearbeitung.
Was meinst du mit zuerst die Daten hochziehen.
Kannst du mich da aufklären.
Danke
Peter
 
Hallo Peter,

der Aufwand mit dem Hochskalieren der Bilder lohnt
sich genau genommen nur, wenn man im Undersampling
steckt. Besser ist immer, den Abbildungsmaßstab schon
vorher richtig gewählt zu haben. Aber wenn es dann
doch passiert ist, dann kann man den Verlust an Auflösung
durch die Masse der Bilder zumindest teilweise
kompensieren.

Dazu habe ich das AVI in Einzelbilder zerlegt und die
Bilder mit einer bikubischen Interpolation um den Faktor
2 gestreckt. Das gibt jede Menge Daten ;-) und das
dauert natürlich auch in der Bearbeitung viel länger als
das Drizzling beim Stacking-Prozess. Registax ist da also
deutlich effizienter, zumal im Endergebnis kein Unterschied
besteht, ob die Daten voher interpoliert wurden oder erst
beim Stacken (zumindest ergaben das meine Versuche). Da
aber da AviStack noch kein Drizzling beherrscht, heißt es
also, die Daten vorher aufzublasen.

cs,
Karl
 
Hallo Karl
Spar dir doch die Arbeit und mache die Aufnahme im einigermassen richtigen Abbildungsmassstab.
Wenn du dir nicht sicher bist, ob der Abbildungsmassstab passt so mache doch jeweils zwei Varianten, z.B. f15-17 und f20-25.
Zur Beurteilung der Bildqualität mache ich meistens schnell einen Durchlauf des Rotkanales mit Autostakkert.
So sehe ich sofort, ob ich schnellstmöglich wieder die Matratze aufsuchen, oder weitermachen soll.
Grüsse
Peter
 
Hallo Peter,

danke für den Hinweis. Wie gesagt, die Arbeit mache
ich nur, wenn es wirklich notwendig ist. In dieser
Nacht jedoch hatte ich keine Chance, der "richtige"
Jupiter hätte den Chip gesprengt.

cs,
Karl
 
Hallo Karl,
wie geschon mal geschrieben bin ich seit etwa 2 Wochen sämtliche Filter am testen am ausführlichsten den Mexican Hat, bei kleinster Filtereinstellung mit ziemlich hohem Filterwert sieht alles immer ganz gut aus aber nach einem zweiten Durchlauf mit größerer Filtergröße und geringer Filterstärke tauchen immer mehr oder weniger stark ausgeprägte Schärfestreifen am Planetenrand auf.
Also z.B Filterform dreieck, Charakteristik kritische dämpfung, Rauschfilter Rechteck Rauschfiltergröße 5, Filtergröße 7 mit 1000%
zweiter Durchlauf Rauschfilter 7,Filtergröße 9 Filterwirkung jetzt nur 200% . Schon Streifen erkennbar und die Planetenmonde werden "gefressen" Da sieht man genau wie der Filter von der scharfen Kante nach innen durchwandert.
Gibt es da einen Trick?
Gruß Andreas
 
Hallo Andreas,

kannst Du mir mal ein Beispiel zeigen oder mailen?

Ein einmal mit einer bestimmten Charakteristik geschärftes
Bild solltest Du möglichst nicht nochmal mit der gleichen
Funktion schärfen. Jedes Schärfen verursacht Artefakte, die
beim zweiten Durchlauf erheblich verstärkt werden. Ich kann
die Wirkung der Filter besser dosieren (insbesondere
verschiedene Filterbreiten des gleichen Filters) indem ich
den jeweiligen Filter immer nur auf die Rohdaten anwende und
die geschärften Bilder in einem Grafikprogramm überlagere.
So schärfe ich kleine Strukuren und große Strukturen und kann
nach Geschmack die beiden Filterungen gewichten. Im Schnitt
sammle ich sogar ein halbes Dutzend oder mehr unterschiedlichste
Schärfungen und mische die gelungenen
Versionen nach Gusto.

Grüße,
Karl
 
Hallo Karl,

habe in der Mittagspause grad ahnungslos auf A.de gesurft und hätte beim Anblick deines Wahnsinns-Jupiter beinah mein Brötchen verschluckt ;-)

Die Qualität der hier gezeigten Aufnahmen hat mittlerweile ein Niveau erreicht, wo man normal glauben würde, es geht nicht mehr besser. Diese Aufnahme aber, sticht aus meiner Sicht, vor allem aufgrund ihrer natürlichen Farbgebung und der zurückhaltenden Schärfung besonders hervor.

Wirklich Spitze!!

CS
Kurt
 
Hallo Karl,
30Fps so wenig? Bei welcher Belichtungszeit.
Ich will nicht unverschämt sein aber das macht mich krank.
Vielleicht kannst Du das verstehen, das Seeing ist mal gut und man hat bei der Aufnahme das mulmige Gefühl ein Parameter könnte vielleicht einen taken besser stehen.
Grüße Andreas
 
Hallo Andreas,



Die Belichtungszeit war viel kürzer als 1/30 s. Aus dem Gedächtnis:
1/45 s Blau, 1/60 s Grün, 1/90 s Rot, 1/109 RG645 und 2/3 max. Gain.
Den Blaukanal hätte ich sicherlich auch mit 1/60 s betreiben können.
Trotzdem habe ich mich auf 30 fps beschränkt. Meine betagte
Firewire-Kamera zeigte bei 60 fps schon recht deutliche Störmuster.
Die Ergebnisse waren beim alten Modell mit 60 fps durchweg schlechter
als mit 30 fps, außerdem hatte ich selten genügend Licht für 60 fps.
Die neue DMK-Kamera mit ICX 618 sieht da deutlich besser aus. Am
Bildschirm bei 60 fps sind keine Störmuster sichtbar (sie muss auch
nicht so hoch verstärkt werden) und die Kamera ist unbestreitbar
empfindlicher. Da wären 60 fps nur konsequent. Aber nach einem Jahr
Drehpause, mit neuer Kamera und mit einem Seeing, das ich wohl so
schnell nicht wieder bekomme, wollte ich keine Experimente machen.
Die 60 fps werde ich beizeiten natürlich testen ;-)

cs,
Karl
 
Danke karl,
finde ich toll das Du keine Geheimniskrämerei betreibst.
Ich bin halt jetzt verwirrt obwohl schon mehrfach hier Diskutiert.
Wenn Du mit 30fps Aufnimmst und die Bel. Zeit z.B nur die hälfte betragt aslo 1/60s dann frage ich mich was mit dem rest der daten passiert wird dann höher komprimiert? Oder fehlt jede zweit Aufnahme.
Ich bin auch deshalb irritiert da im Tutorial von Peter Wellmann ausdrücklich steht dass man die Belichtungszeiten den frameraten anpassen soll. Ich erlaube mir mal das hieeinzukopeiren:
Zitat:
Belichtungszeit und Bildfolge (fps): Diese Größe ist die wichtigste überhaupt, und bestimmt zu fast 100% die Qualität eines Videos. Solange der Chip nicht überbelichtet wird gilt: Je mehr Licht, desto besser. Falls also das Seeing nicht zu sehr kurzer Belichtung zwingt, wählt man eine längere Belichtungszeit. Ganz wichtig ist noch die Kombination aus der Bilderzahl pro Sekunde (fps) und der Belichtungszeit. Da die Qualität eines Videos mit der Zahl der insgesamt verwerteten Photonen steigt, sollte kein Licht verschenkt werden. Das gelingt bei korrekter Einstellung: Zu 30fps stellt man eine Belichtung von 1/30s ein, zu 15fps nimmt man 1/15s usw. usw. Diese Regel ist besonders bei lichtschwachen Planeten unbedingt einzuhalten
Zitat ende.
Ich habe mich ziemlich an dem Tutorial orientiert und habe schon das Gefühl das das stimmig ist nur in der praxis mit großer Öffnung über 40cm und z.B 6 bis 9m Brennweite ist der Wert schwer einzuhalten bei Gain null und 1/60 ist z.B das Bild schon überbelichet es müsste also entweder die Brennweite erhöht werden oder die Belichtungszeit kürzer als die Framerate eingestellt werden wie in Deinem Fall.
Hier der Link zum Tutorial:
Tutorial
Grüße
Andreas
 
Hallo Andreas,

... es ist ein Geben und Nehmen.

Die Empfehlung die Frameraten an die Belichtungszeiten
anzupassen ist sicherlich nicht falsch. Dann wird der
Lichtstrom effektiver genutzt.

Wenn man dagegen eine kürzere Belichtungszeit als die
Framerate wählt, gehen zwar keine (generierten)
"Nutz-Daten" verloren und es muss auch nicht komprimiert
werden. Ein Teil des Lichstroms wird aber wie erwähnt
nicht verwertet.

Die Frage ist aber, ob das in der Summe aller Einflüsse
am jeweiligen Teleskop schadet und deswegen ist Dein
Hinweis auf die Teleskopöffnung richtig. Es gibt eben
noch andere Einflussfaktoren: Das Rauschen der Kamera
aus verschiedenen Quellen und Seeing.

Mit schnellerer Auslesung des Chips wird das
Ausleserauschen immer größer. Höhere Frameraten rauschen
also automatisch immer mehr. Bei hohen Signalstärken ist
das irrelevant, nur geht uns leider bei 60 fps
(normalerweise) das Licht aus. Der Gain muss an den
Anschlag, die Kamera verstärkt sich selbst, d.h. lange
Belichtungszeiten (= kleinere Frame-Raten) wären besser.
Gegenläufig ist der Effekt vom Seeing: je kürzer die
Belichtungszeit, umso besser für's Bild

Nun fotografiere ich an einem dicken Brocken (18"). Die
Probleme mit dem Seeing haben hier eine völlig andere
Qualität als mit einem 8"er oder 10"er. Hier gilt nicht
die Regel, so lange wie möglich zu belichten. Hier gilt,
dass ich bei längeren Belichtungszeiten als 1/15 s
überhaupt noch nie ein halbwegs scharfes Bild zusammen
bekommen habe. Am liebsten wären mir Belichtungszeiten
von 1/100 s, was bisher leider illusorisch war aber nun
zumindest im Rotkanal erreichbar ist.

Mit dem neuen Chip habe ich also plötzlich die Wahl, ich
kann 30 fps oder (manchmal) 60 fps nehmen. Bei der alten
Kamera hatte ich diese Möglichkeit nicht, da hieß es
1/15 s bei Saturn, 1/30 s bei Jupiter und 1/60 s waren
generell unbrauchbar, selbst beim Mond. Wie gut sich die
60 fps an der neuen Kamera machen, wird jedenfalls noch
ein spannendes Kapitel.

Klaren Himmel,
Karl








 
Hallo Karl,
das sind ja mehr Infos wieich gehofft hatte.
Vielen vielen Dank.
Ich hab doch auch einen dicken Brocken aber damit habe ich noch nichts gescheites hinbekommen.
Ich habe noch die alten Kameres habe aber immer mit 60fps aufgenommen, Bei der DBK gehen unkomprimiert nur 30fps.
Jetzt leuchtet mir ein warum bei mir der unterschied zwischen DMK und DBK nicht so groß ist wie er sein müßte.
Werd ich testen. Ausserdem habe ich mir veschiedene Blenden ausgesägt die ich schnell malvor den Spiegel legen kann bei laufender Kamera. Ich habe so den Verdacht das ein großer Brocken abgeblendet schneller in den optimalen Fokus zu bekommen ist, und bei bescheidenem Seeing bestimmt besser reagiert. Im Baumarkt gibt es aus Kunsstoff so Blumentopfuntersetzer die lassen sich schnell zu Blenden umsägen.
Bin im moment auf der Warte und hoffe auf eine größere Wolkenlücke um das auszuprobieren. Dann gebe ich Bescheid.
Gruß
Andreas
 
Status
Es sind keine weiteren Antworten möglich.
Oben