Mein erster ernsthafter astrofotografischer Versuch: M81

Status
Es sind keine weiteren Antworten möglich.

Dunkle Energie

Aktives Mitglied
Hallo, liebes Forum,

nachdem mir einige bei verschiedenen Fragen geholfen haben, möchte ich allen, die es interessiert, das erste noch etwas hemdsärmelig erzeugte Resultat meiner Bemühungen nicht vorenthalten.
Da ich mich in die ganz neu (bzw. gebraucht) angeschaffte Technik erst einarbeiten muß, habe ich für dieses Bild zunächst einmal mit "Minimaltechnik" gearbeitet, und zwar:


Meade 8“ ACF auf AZ-EQ6 GT
ZWO ASI294
Binning 3x3 (-> 1,4“/px)
ohne Guiding
ohne Kühlung
20 Lightframes zu jeweils 180 Sekunden
1 (!) Darkframe
ohne Bias- und Flatframes
Steuerung mit ASIair
Bearbeitet mit Astropixelprocessor (größtenteils Standardwerte) und Affinity Photo (fast schon Bildvergewaltigung ;-) )
leicht verkleinert (um "harte" Artefakte besser zu kaschieren)

Aus dem Originalbild waren nahezu keine Farben sinnvoll zu bekommen; weil bekannt ist, wie es aussehen muß, habe ich eifrig an den Gradationskurven gebogen.

Viele Grüße

Markus

Link zur Grafik: http://www.wegmann-schepp.de/kunden/_privat_84ng0wri/M81_3.jpg
 
Hallo Markus,

für 180s-Einzelbelichtungen ohne Guiding, ein sehr gutes Ergebnis! Man kann M81 gut erkennen und die Sterne sind nur minimals deformiert. Das ist mehr als nur ausbaufähig! Vor allem kann man trotz der kurzen Belichtungszeit schon die Staubbändern in Kernnähe erkennen.

Da ich selber auch seit Jahren ein 8" ACF nutze ein paar kleine Tips:
- Kauf dir unbedingt einen CCDT67 (Reducer von AstroPhysics), das macht dir vieles leichter und du bekommst etwas mehr auf den Sensor - vor allem Licht.
- Versuch noch genauer zu fokusieren, vom ersten Eindruck her hätte ich gesagt, du hast den Fokus nicht 100%ig getroffen.
 
Hallo, Markus,

danke für Deine Tips. In der Tat überlege ich, genau diesen Reducer anzuschaffen. Es ist gut möglich, daß der Fokus besser hinzubekommen ist, die Unschärfe resultiert aber vor allem aus der heftigen Nachbearbeitung und dem fehlenden Guiding. Normalerweise wäre das Bild für die Tonne, ich wollte aber einfach mal sehen, was rauszuholen ist. :)

Ich arbeite dran!

Markus
 
Wenn wir schon mal dabei sind: Als sooooo klein empfinde ich den Sensor mit 22 mm Diagonale gar nicht, aber klar, mehr geht (fast) immer. Da auch mit Reducer die größeren Objekte immer noch viel zu groß sind, habe ich mir die Frage gestellt, ob es nicht sinnvoll ist, nur mit Binning zu arbeiten, da ich mittelfristig ohnehin ein RASA 8" anschaffen möchte (daher die Frage nach der Doppelklemmung) . Es gibt dann zwar immer noch einige Objekte, für die weder das eine noch das andere Gerät (zusammen mit der genannten Kamera) ideal ist, aber so ist das nun mal.
Findest Du den Reducer (der ist doch nur fotografisch verwendbar, richtig?) auch im Hinblick auf diese Planung sinnvoll?
 
Ich hab´s ja in meinem ersten Beitrag schon korrigert, ich hatte den Sensor kleiner im Kopf.... 22mm sind schon ne gute Grundlage ;-)

Den Reducer finde ich in jedem Fall sinnvoll, denn du bist mit den 4,63µm-Pixeln der Kamera eh jenseits von Gut und Böse bei voller Brennweite des ACFs, hast also keinen echten Detailgewinn durch die höhere Brennweite (Seeingbedingt) allerdings den Nachteil des langsamen Öffnungsverhältnisses. Mit Reducer bekomsmt du also mehr Licht auf den Sensor und im Endeffekt die gleichen Details. Bei mir ist der CCDT67 quasi immer am ACF, egal was ich fotografiere, lediglich bei Planetenvideos kommt er raus und wird ggf. noch durch eine Barlow ersetzt...

Binning ist so weit ich weiß bei der ASI294 keine echte Option, da du einen Farbsensor hast und das Binning nur eine "Softwarekrücke" ist. Echtes Binning funktioniert so weit ich weiß nur bei SW-CCDs.
 
Danke für Deine Erklärungen.
Zum Binning muß ich aber sagen, daß das - soweit meine noch recht wenigen Tests eine Beurteilung zulassen - schon ganz vernünftig funktioniert. Gerade weil die Auflösung mehr als genügend ist, kann man schön damit experimentieren.
Binning ist eigentlich immer eine Softwaresache, nur daß beim Farbsensor eben nicht die direkten Nachbarn sondern die farbgleichen Elemente in die Berechnung einfließen:

Pixel Binning - VISTA LAB WIKI

Eigentlich hatte ich erwartet, daß zwischen 2x2 und 3x3 kein nennenswerter Unterschied hinsichtlich der Detailabbildunhg besteht. Bei den sehr guten Bedingungen letzte Woche war zwischen 2x2 und 3x3 eindeutig ein Unterschied sowohl in der Detailauflösung als auch in der Bildhelligkeit auszumachen. Da die Bedingungen selten so gut sind, vermute ich, daß 3x3 der Standardwert werden könnte und manchmal 2x2 sinnvoll ist. Ich werde das testen.
Angeblich ist ein Farbsensor in der Auflösung etwa 30 % schlechter als ein Monochromsensor. Wenn ich die Werte für 2x2 zugrundelege (effektiv 9,26 Mikrometer Kantenlänge) und den Abbildungsmaßstab (0,94"/px) mit 1,3 multipliziere, komme ich auf rund 1,2"/Effektivpixel - ein Wert der für gute (mitteleuropäische) Bedingungen ziemlich gut passen sollte. (Siehe M3-Bild unten). Über den Reducer denke ich trotzdem nach. :)

Das Bild ist auf die gleiche Weise entstanden wie das von M81, lediglich das Binning (2x2) wurde verändert.
(60 Lightframes zu jeweils 30 Sekunden). Die Farbe kommt in diesem Fall tatsächlich aus dem Bild.

Link zur Grafik: http://www.wegmann-schepp.de/kunden/_privat_84ng0wri/M3_2.jpg
 
Das gleiche Ergebnis solltest du auch erhalten, wenn du statt mit 2x2-Binning aufzunehmen, ein Bild ohne Binning fertig bearbeitest und anschließend auf 50% skalierst und dabei dezent nachschärfst...

Binning ist eigentlich immer eine Softwaresache, nur daß beim Farbsensor eben nicht die direkten Nachbarn sondern die farbgleichen Elemente in die Berechnung einfließen:

Angeblich ist ein Farbsensor in der Auflösung etwa 30 % schlechter als ein Monochromsensor. Wenn ich die Werte für 2x2 zugrundelege (effektiv 9,26 Mikrometer Kantenlänge) und den Abbildungsmaßstab (0,94"/px) mit 1,3 multipliziere, komme ich auf rund 1,2"/Effektivpixel - ein Wert der für gute (mitteleuropäische) Bedingungen ziemlich gut passen sollte.

Da hast du meiner Meinung nach einen kleinen Denkfehler eingebaut, denn eine effektive Kantenlänge von 9,26 µm würde voraussetzen, dass die Photonen einer Punktlichtquelle auf diese Fläche fällt, was sie aber de facto gar nicht kann, da zwischen den z.B. beiden Rotpixeln R1 und R3 ein Grünpixel liegt, der das Licht ggf. gar nicht detektieren kann, wenn die Lichtquelle Rot strahlt. Somit erreichst du mit dem Binning nur dann etwas, wenn die Photonen ein Feld von mindestens 3x3 gleichzeitig "befeuern". Bei SW-Sensoren ist das grundlegend anders, denn wenn dort eine schwache Punktlichtquelle zentral auf das Feld von 2x2-Pixeln fällt, werden diese ALLE seeingbedingt mit Photonen versorgt. Wenn man dann die Werte dieser 4 Pixel addiert/mittelt, bekommt man ein recht "helles" Ausgabepixel, was grob gesagt Sinn des Binnings ist. Darüber hinaus gibt es auch noch einen Unterschied zwischen CMOS und CCD-Sensoren, die sich in Sachen Rauschen beim Auslesen unterscheiden. Beim Softwarebinning, wie ASI es macht, wird der Wert jedes Pixels einzeln über den Ausleseverstärker geschickt was zum Rauschen führt, bei einem CCD-Sensor werden die 4 zusammengefassten Pixel im 2x2-Modus als EIN Wert über den Ausleseverstärker geschickt, was zu deutlich geringerem Rauschen führt (in etwa 1/4).

Lange Rede kurzer Sinn, was die ASI durch das Binning erzeugt, kannst du im Nachgang ebensogut, wenn nicht sogar besser durch geschickte EBV erreichen.

Hier: verschlechtert Binning die Qualität ging es auch um das Thema Binning bei Farbsensoren.

Noch besser wird es, wenn du die Aufnahmeserie ditherst...

Du brauchst halt Verlängerungshülsen um den Abstand Sensor->Reducer einstellen zu können.
 
Zuletzt bearbeitet:
Ok, ich habe mich unklar ausgedrückt. Meine Annahmen sind so:

Wenn man die ideale Punktlichtquelle - die auch als solche auf dem Sensor ankommt - zugrundelegt, hast Du hinsichtlich des Farbsensors hundertprozentig recht.
Nun ist es so, daß die Puntlichtquellen in unserem Fall nur sehr selten monochrom strahlen und nie als Punkt den Sensor erreichen. Klar, bei besonders kleinem Punktdurchmesser hat der Monochromsensor eindeutig Vorteile. Schaue ich mir aber die Punktdurchmesser in einem Bild ohne Binning an, sind diese fast durchweg so groß, daß sie durchweg mehr als die beim 2x2-Binning benutzen 4x4 Kamerapixel treffen. Nur deswegen habe ich das mit dem Binning überhaupt ausprobiert.
Der Unterschied zwischen Binning und späterem Skalieren existiert auch nur aus diesem Grund: Beim Binning werden die Intensitäten addiert, beim Skalieren nicht. Allerdings wird das skalierte Bild wahrscheinlich schärfer sein. Man kann eben nicht alles haben.
Anders sieht das bei Objekten aus, die über eine große Fläche z.B. hauptsächlich rot sind. Da halbiert sich die Auflösung des Farbsensors logischerweise. Allerdings könnte man auch in diesem Fall mit Binning arbeiten, sofern das Objekt relativ strukturarm ist, die Kamerauflösung hoch genug ist und/oder die Bedingungen (Seeing) ohnehin keine detaillierten Bilder zulassen.
Eine Vermutung hinsichtlich des Rauschens: Theoretisch müßte es eigentlich so sein, daß Binning (wie auch das Skalieren) die Dynamik des Rauschens verringert, weil die benachbarten Pixel unterschiedliche Rauschwerte aufweisen, die sich in den meisten Fällen ein gewisses Stück weit kompensieren. Das ist aber wie gesagt nur eine Vermutung.
Zusammen mit Dithering könnte das schon recht gute Rauschwerte erzeugen. Ich sehe schon, ich habe noch ein paar Betätigungsfelder. :)

Sind meine Annahmen richtig oder falsch?

Bist Du sicher, daß beim Monochromsensor die gebinnten Pixel tatsächlich IMMER zusammen ausgelesen werden? Gibt es nicht auch die Softwarevariante?
 
Die Pixel zusammen als einen Wert auslesen funktioniert NUR bei CCD-Sensoren, CMOS-Sensoren haben für jedes Pixel einen eigenen Ausleseverstärker, dort ist es technisch also nicht möglich. Daher kannst du nur beim CCD-Sensor das Rauschen durch Binning verringern, bei allen anderen Sensortypen bekommst du das Thema Rauschen nur durch viele Subframes, Dithering und Korrekturabzüge (Darks, BIAS) in den Griff und natürlich ordentlich Belichtungszeit. Und ja, auch durch runtersaklieren "entrauschst" du das Bild in gewisser Weise.

Richtig, beim Binning wird addiert, beim runterskalieren nicht, aber es gibt genügend Programme die dir nachträglich dein Bild "binnen", also auch da gibt es keinen Grund, das Rohmaterial ohne Not vorab zu beschneiden.

Noch was zum Thema Binning... Bei einem CCD-Sensor, der "echtes" Binning kann, wird diese Technik auch genutzt, um schwache Signale überhaupt einzufangen. Wenn du z.B. eine sehr sehr schwache Lichtquelle hast, deren Licht es bei gegebener Belichtungszeit nicht ausreicht um von einem Pixel detektiert zu werden, kann es sein, dass durch Addition von 4 Pixelwerten eben doch ein verwertbares Signal zustande kommt.
 
Ich nehme (fast) alles zurück und behaupte das Gegenteil. Ich habe es gerade getestet: Beim Aufnehmen werden die Bilder mit Binning NICHT heller! Ich frage mich dann allerdings, wozu das gut sin soll.
Beim ersten Test hatte ich mich wohl bei den Histogrammeinstellungen vertan.
 
Wozu das gut sein soll? Ressourcen sparen! Mti dem "kleineren" Rohmaterial ist auch das Stacken und die Verarbeitung der Korrekturbilder (Flats, Darks, BIAS) deutlich schneller, ich pers. würd´s aber nur dann machen, wenn es mit den vollen Rohdaten nicht funktioniert.

Oder beim Live-Stacking in der EAA könnte das geringere Datenvolumen von Vorteil sein....
 
Bei den heutigen Preisen für Speicherplatz und Rechenleistung ist das fast schon ein Witz. Egal, ist eben so.
Also heißt es ab jetzt: Immer mit voller Auflösung, alles andere kommt später. :)
 
Die Pixel zusammen als einen Wert auslesen funktioniert NUR bei CCD-Sensoren, CMOS-Sensoren haben für jedes Pixel einen eigenen Ausleseverstärker, dort ist es technisch also nicht möglich. Daher kannst du nur beim CCD-Sensor das Rauschen durch Binning verringern, bei allen anderen Sensortypen bekommst du das Thema Rauschen nur durch viele Subframes, Dithering und Korrekturabzüge (Darks, BIAS) in den Griff und natürlich ordentlich Belichtungszeit. Und ja, auch durch runtersaklieren "entrauschst" du das Bild in gewisser Weise.

Richtig, beim Binning wird addiert, beim runterskalieren nicht, aber es gibt genügend Programme die dir nachträglich dein Bild "binnen", also auch da gibt es keinen Grund, das Rohmaterial ohne Not vorab zu beschneiden.

Noch was zum Thema Binning... Bei einem CCD-Sensor, der "echtes" Binning kann, wird diese Technik auch genutzt, um schwache Signale überhaupt einzufangen. Wenn du z.B. eine sehr sehr schwache Lichtquelle hast, deren Licht es bei gegebener Belichtungszeit nicht ausreicht um von einem Pixel detektiert zu werden, kann es sein, dass durch Addition von 4 Pixelwerten eben doch ein verwertbares Signal zustande kommt.

Moin,

Markus hat es gut zusammengefasst, man kann es nicht deutlich genug sagen, CCD und CMOS sind nicht nur unterschiedliche Halbleitertechnologien sondern arbeiten auch technisch unterschiedlich! Nicht umsonst wird für viele Zwecke nach wie vor an der CCD geforscht und entwickelt, um die Leitung voranzutreiben.

CS
Jörg
 
Hallo,

ich habe es nun auch schriftlich von ZWO:

"Hi Markus,
The bin calculation is done in the software.
It will merge with the pixel closest to itself and calculate the average value."

Welches Programm fürs "nachträgliche Binnen" empfehlt Ihr? Ich habe - weil die Bedienung schön einfach ist - bisher "Astropixelprocessor" verwendet, wollte mir aber PixInsight ansehen. Bietet das diese Möglichkeit?
 
Schau dir PI ruhig mal an, wenn du dann mit der EBV durch bist, reicht vermutlich ein einfaches verkleinern um die Bilder im Web zu zeigen...
 
Status
Es sind keine weiteren Antworten möglich.
Oben