EAA u Sharpcap Hilfe erbeten / Teil 2

Status
Es sind keine weiteren Antworten möglich.

Torijchi Point

Aktives Mitglied
Hallo in die Runde u speziell an alle EAA Anhänger,

im Dezember u Anfang Januar boten sich einige wenige Gelegenheiten, eure Tipps u Ratschläge anzuwenden. CS ist auch bei uns in Sachsen-Anhalt eher Glückssache als der Normalzustand.

Punkt 1: Den Imagetrain zerlegen u von Staubpartikeln säubern hat geklappt. Nur bei sehr starkem Stretchen ist noch ein blasser Donut zu erkennen. Aber damit komme ich erst mal klar…
Punkt 2: Den Gain bei meiner QHY 294mc pro hochzudrehen war genau richtig. Statt 1600 wie vorher bin ich über 2600 bis 3000 u testweise etwas mehr hoch gegangen. Deutlich mehr Signal kam dann auch an. Habe nun versucht, eure Hinweise bezüglich Histogramm u Belichtungszeit anzuwenden, was auch meiner Meinung nach recht gut geklappt hat…
Gut, am Kontrast u der Schärfe muss ich noch arbeiten. Auch den Grünstich der Bilder (Danke nochmals an Ewald MünchenBeiNacht für die Tipps dazu) versuche ich in Zukunft abzustellen. Irgendwie aber scheue ich mich davor, alles zu dunkel zu stellen, um nicht wieder Signal zu verlieren.
Die Bilder im Dezember waren zumindest ein Fortschritt. Nur traten jetzt deutlich erkennbare Fehlpixel auf, die schließlich bei längerem Stacking (so ab 10min) zu RGB-Fadenwürmern mutierten. Ich dachte kurzzeitig, meine Kamera taugt nichts. Bis mir eingefallen ist, dass man ja Darks machen u entsprechend einsetzen kann.
Ist ja bei SharpCap wirklich toll gelöst: Einfach eine kleine Bibliothek verschiedener Gain u Belichtungszeiten angelegt u die Software sucht sich die passenden Dateien selbst raus. Und letztens in der Nacht zum 7.1. waren die RGB Linien dann wirklich verschwunden. Hab natürlich innerlich gejubelt, dass es wieder einen Schritt voran geht mit EAA.

Punkt 3: Und damit auch zum wirklich großem Problem. Ich bin ja happy, wenn ich bei SharpCap mittels Livestacking diverse DSO sichtbar machen kann. Trotzdem wundert es mich immer noch, wieso sich nach gut einer Stunde Stacking u dutzenden Subframes das Stackingbild nicht signifikant verbessert. Dass nicht mehr Konturen (von Galaxien z.B.) sichtbar werden, nicht mehr Signal angesammelt wird ???
Das ist mir echt schleierhaft! Gut, mein 8“ SCT mit Reducer f/6,3 ist nicht gerade eine Lichtrakete, aber trotzdem sollte doch ein 60min Stack bessere Strukturen aufweisen als ein 15 min Stack, oder ?
Oder muss ich z.B. bei M81 Bode Galaxy nicht nur 60 min Geduld haben, sondern die doppelte Zeit einplanen? Denke ich da total in die falsche Richtung? Ihr, Ewald MünchenBeiNacht u Dietmar Lloyd69 habt doch auch deutlich mehr DSO im Bild, obwohl ihr nicht so lange drauf halten müsst… Hapert noch irgendetwas bei meinem SharpCap Setup? Brauche ich vielleicht spezielle Filter (ich habe bislang nur den von QHY empfohlenen IR/UV cut Filter vorgesetzt)
Also, diesbezüglich wäre ich über (für mich) neue Ansätze u Anregungen schon sehr dankbar.

Ein Beispiel dazu noch von letzter Nacht. Wir hatten eine drei Stunden Wolkenlücke, also hab ich gegen Mitternacht alles angeschlossen u auf M81 / M82 gehalten. Nach einer knappen Stunde schließlich habe ich genervt abgebrochen, weil a) ein Wolkenband durchzog u b) sich das gestackte Bild nicht weiter entwickeln wollte. Anbei nochmal einige Screenshots meiner SharpCap Einstellungen. Beachtet bitte die Total Exposue Time

Screenshot 2022-01-15 004018.jpg


Screenshot 2022-01-15 005338.jpg


Screenshot 2022-01-15 012918.jpg

Screenshot 2022-01-15 005422.jpg

Screenshot 2022-01-15 012941.jpg


Wie gesagt, da weiß ich nicht so recht weiter. Wäre schön, eure Meinungen dazu zu lesen.

Und noch etwas fällt mir auf: Und zwar der kreisrunde Bereich im Zentrum des Bildes ist grünlich, die äußeren Bereiche der einzelnen Bilder gehen aber ins violette… Woher kommt diese ungleiche Farbverteilung? Muss man einfach alles nur dunkler/ fast schwarz stellen oder kann man diese Vignettierung (so es denn eine ist) anderweitig abstellen?

Ich hoffe auf eine rege Diskussion u freue mich auf eure Beiträge. Vielleicht kann ja auch der ein oder andere EAA Neuling hiervon profitieren. Danke im Voraus u zum Schluß noch meine in Fitswork bearbeitete Aufnahme von letzter Nacht... CS u viele Grüße an alle! Axel_
Stack_fitswork paintnet 16bits_790frames_3160s_6.png
 
Hallo Axel,

das schaut doch gar nicht schlecht aus. Ich denke Du hast eine Problem das hat vier Buchstaben und heißt M - O - N - D.

Ich konnte auch die zwei vergangenen Nächte ein wenig beobachten und habe mich vergeblich an M95 / M96 versucht. Ich habe dazu sogar extra um 5 Uhr morgens begonnen, so dass der fast Vollmond schon ziemlich im Westen verschwunden war.

Stack_225frames_3600s_WithDisplayStretch.png



Das Problem im obigen Bild ist, dass M95 oben rechts und M96 unten links mehr oder weniger gleich groß sind und M96 etwas größer und sogar Licht stärker ist als M95 ist. Aber M96 bei mir völlig bescheiden ausschaut. Ich habe es dann einen Nacht später statt mit meiner Barlow also 975 mm f/7,5 ohne Barlow mit 650 mm und f/5 probiert. Es war anders aber nicht wirklich besser, eher schlechter.


Stack_149frames_2384s_WithDisplayStretch.png


Ich würde meine Probleme mit M95 / M96 exakt genau so beschreiben wie es Dir ergangen ist. Was mir dann in der Morgendämmerung heute Morgen aufgegangen ist, vermutlich hätte ich es einfach mit meinem Quad-Band oder UHC Filter zum ausblenden des Störlicht probieren sollen. Und vor allem ist es gerade bei so hohem Störlichtanteil sicher nicht hilfreich sich um Objekte mit mag 9,2 oder mag 9,8 zu bemühen.

Mit der Vignetierung hatte ich in den vergangen zwei Nächten auch zu kämpfen. Ich denke auch da ist die Ursache der helle Störlichtpegel durch den Mond. Vermutlich würde genau da auch wieder ein Filter helfen und vor allem noch besser Flats. Flats sind noch eine Baustelle bei mir, mit denen ich mich bisher nur vergeblich bemüht habe. Bei den wenigen möglichen Beobachtungsnächten versuche ich mich auf bekannte und erprobte Verfahren zu beschränken. Es gibt ja noch genug im Bekannten zu lernen.

Ein positives Ergebnis aus den letzten Nächten ist aber übrig geblieben. Die neue Sharpcap Version kann jetzt nach erfolgreichem Plate-Solving Vorgang die gefundenen Objekt annotated, also mit Namen versehen. Das schaut dann so aus.

sharcap-06.jpg


Also ich denke Du bist völlig richtig unterwegs. Probiere es wieder wenn der Mond eher in Richtung Neumond unterwegs ist und versuche dich mit möglichst großen Objekten. Dann ist alles viel einfacher. Und wie geschildert würde ein entsprechender Filter (~ € 200 ) helfen können. Ich würde aber nicht sofort einen neuen Freiheitsgrad aufmachen, sondern erst sicherer werden bei Neumond und mit großen, einfacheren Objekten.

Viel Erfolg noch!

MünchenBeiNacht - Ewald
 
Hi,

also ich denke auch, dass das "normal" aussieht. Aber besser geht immer. ;)

UHC und anderes sollte eigentlich bei Galaxien Aufnahmen mit Mond-Hintergrund nichts bewirken.
Der Mond und die Galaxien sind Kontinuums-Strahler. Da kann mit Filter kein zusätzlicher Kontrast herausgequetscht werden.
Aber wie immer, Versuch macht kluch. ;)

Ich hatte es auch bei einer Galaxiengruppe eine Stunde probiert. Das ist mir normalerweise zu lang, aber ich hatte was anderes zu tun und liess es halt laufen ;) .
Da kam auch fast keine Verbesserung raus.
Normalerweise bringt eine Verdopplung der BLZ eine deutliche Verbesserung.
Also zB die Kette: 1s 2s 4s 8s 16s 32s 1m 2m 4m 8m 16m

Man kann auch schöne Sternhaufen aufnehmen. Da stört das Mondlicht kaum (M52):

Stack_16bits_70frames_70s.png

Flats mache ich nach den Aufnahmen.
Beim Live-Stacking benutze ich sie nicht, da ich mit den Aufnahmen auch noch ein bisschen EBV (SiriL, Affinity) danach machen will.
Da würde eine Aufnahme auf die schon ein Flat angewendet wurde eventuell stören.
Aber das muss sich bei mir noch entwickeln.

Die Flats nehme ich übrigens durch Live Stacking (Alignment ausschalten) auf, da ich dann auch ein 32bit Flat bekomme.
Mit Affinity im Astronomy Stack kann ich übrigens auch an einem einzelnen Bild das Flat abziehen. Das hat bisher gut funktioniert. Mit SiriL habe ich das nicht hinbekommen.
Die Flats bringen übrigens wirklich was. Da kann man dann viel stärker stretchen und die Vignettierung ist weg.

Gruß
Peter
 
Zuletzt bearbeitet:
Hallo Ewald,
danke für deine wieder einmal sehr ausführliche Antwort. Ich hoffe ja wirkllich, dass überwiegend der MOND Schuld ist an meinen halbfertigen Bildern. Und gestern war er ja wirklich wieder mal unterwegs ... siehe Beweisstück #1

Moon_00001_2.jpg

Tja, wenn es mal immer so einfach wäre, auf mondlose Nächte zu warten. Ich möchte natürlich jede Nacht nutzen, in der man mehr sehen kann als Dunst u Wolken. Aber hast schon recht, sollte mir dafür erstmal hellere Objekte aussuchen. Die Sache mit dem UHC Filter habe ich mir schon ausgeguckt. Hast du dafür eine Filterschublade od schraubst du den Filter mittels T2 einfach vor die Kamera?
Deine Zwo ASI 294mc hat ja genau wie meine QHY 294mc nur ein Schutzglas vor dem Sensor, also keinen IR/UV Cut Filter. Benutzt du dann den UHC Filter mit IR/UV Cut Filter od lässt du diesen generell weg??? Ist wahrscheinlich ne Wissenschaft für sich das Ganze mit den Filtern... :unsure:

Das neue Feature von SharpCap mit dem Benennen beim Platesolven klingt ja sehr vielversprechend. Bisher musste ich immer den Umweg über Astrometry.net gehen. Ist immer etwas umständlich u braucht Zeit. Muss ich mir bei Gelegenheit mal anschauen, ob ich das vielleicht zum Laufen kriege...
Übrigens, in deinem Screenshot unten rechts sehe ich, dass du die Celestron-Montierung über SharpCap steuern kannst :oops: Was es nicht alles gibt...
Wie geht das denn???
Ich glaube, ich muss hier noch viel lesen u viel fragen, um noch mehr zu lernen.

Letzten Feiertag am 6.Januar habe ich trotz allem ein schönes Bild aufgenommen, NGC 884. Zwar kein DSO, aber ein schöner Sternenhaufen mit einigen Farben. War ich schon froh drüber. Die Sache mit dem Fokus gefällt mir allerdings generell noch nicht wirklich. Hab nämlich damals keinen original Celestron Reducer gekauft, sondern einen um 30 Euro billigeren. War wohl auch ein typischer Anfängerfehler. Denn trotz Bahtinov-Maske bekomme ich nur bestimmte Bereiche im Bild fokussiert, der Rest wird eiförmig etc.

NGC 884 fitswork Stack_16bits_200frames_800s_7.png


Okay, Ewald, vielleicht hast du ja dies WE mehr Glück u kannst wieder gen Himmel gucken. Bei uns soll's erstmal zwei drei Tage mies bleiben. CS Axel_
 
Man darf halt nicht EAA mit Astrofotografie verwechseln oder versuchen zu vergleichen.
Es gibt da schon Unterschiede und die Erwartungen sind, wenn ich das eigentlich ordentliche Bild, betrachte doch schon oft zu hoch.
Das Ziel von EAA ist ja, Live ein Objekt so gut wie möglich zu betrachten und mit Hilfe von elektronischen Mitteln auch Objekte, die mit Hilfe eines normalen Okulars einfach nicht zu erkennen sind, so gut wie möglich darzustellen.

Wenn man dann hinterher auch noch einen schönen Schnappschuss vom gesehen machen kann ist das schon ein Bonus.
Wenn ich mal mit Freunden oder Familie ein EAA Abend mache, dann schauen wir uns mehrere Objekte und max. bis zu einer Std. an, falls die sehr lichtschwach sind und alle freuen sich mal den Krebs Nebel oder Orion oder andere Objekte zu sehen. Hier liegt der Fokus auf dem Live Erlebnis.

Bei der Astrofotografie konzentriere ich mich auf ein Objekt oder sogar mehrere Nächte auf ein Objekt um so viele Details Photonen einzusammeln, damit ich hinterher ein schönes detailliertes Bild machen kann, dass dann auch noch komplett kalibriert etc. wird. hier ist der Focus auf dem Bild und nicht auf das Anschauen, also den Nachhimmel beobachten. Im Idealfall schlafe ich sogar, während im Garten das Teleskop arbeitet.

CS Alex
 
Hallo Alex,

Übrigens, in deinem Screenshot unten rechts sehe ich, dass du die Celestron-Montierung über SharpCap steuern kannst :oops: Was es nicht alles gibt...
Wie geht das denn???
Ich glaube, ich muss hier noch viel lesen u viel fragen, um noch mehr zu lernen.
Im Prinzip ganz einfach. ;) Als erstes braucht man ein USB Kabel. Meine Celestron Handkontroller haben unten direkt einen Mini-USB Anschluss, das macht es im ersten Schritt einfacher. Ältere Celestron Handkontroller haben statt USB einen seriellen Anschluss, dann braucht man ein spezielles Seriell auf USB Kabel, welches aber nicht einfach nur ein Kabel ist sondern intern noch aktive Elektronik hat. Das eigentliche Problem sind eher die Windows Rechner/PCs/Laptop. Irgendwie ist es Hardware Vodoo. Ich habe zwei völlig identische Sony Vaios (aus 2012), der eine arbeitet einfach so mit dem Handkontroller zusammen, der andere überhaupt nicht. Keine Chance. Meine Recherche dazu hat so weit geführt, dass es für die serielle Kommunikation nachgebaute und gefältsche Chips gegeben hat. Angeblich kann der in Windows verwendete USB Treiber feststellen, ob es ein Originalchip oder eine gefälschter Chip ist und mit dem gefälschten Chip funktioniert er nicht. Mein verwendetes Lenovo PAD an der Montierung hat auch keine Probleme damit.

Davon aber mal abgesehen, wenn Windows den Handkontroller als USB Gerät sieht, kann z.B. Stellarium im Direkt-Modus mir der Montierung direkt kommunizieren. Das heißt Du siehst auf der Sternenkarte die Position des Teleskops und kannst auch darüber die Montierung steuern. Bei Sharpcap geht es anders. Dazu braucht man einen ASCOM-Treiber. Dieser Treiber ist eine etwas sperrige Software. Nach der Installation hat man zig Zusatzikons in den Windows Applikationen und es ist nicht ganz einfach heraus zu finden was man für was braucht. Aber über den ASCOM Treiber werden alle Komponenten miteinander verbunden. Das nutzt auch Sharpcap. Darum kann ich in Sharpcap genauso die Montierung und den EAF steuern wie auch in Stellarium. Stellarium hat auch eine ASCOM basierte Teleskop Steuerung. Es gibt fast für jede astronomische Hardware einen ASCOM Treiber. Z.B. für einen Rotator oder für ein Filterrad. Und wenn man eine drehbare, feste Kuppel als Sternwarte hat, gibt es dafür auch eine ASCOM Anbindung.

Übrigens Sharpcap nutzt dies nach dem Plate-solven, dass es falls das in Stellarium ausgewählte und angefahrene Objekt nicht perfekt mittig im Sensor liegt, die Montierung selbstständig so nachsteuert, dass es zentriert und mittig im Sensor liegt.

Als ASCOM ist ein muss!

Das Bild von NGC 884 schaut gut aus. gefällt mir. Ich denke, dass es große Unterschiede bei den Reducern gibt. Aber da habe ich keine eigene Erfahrung. Aber das Forum kann Dir da sicher helfen.

Viel Erfolg noch! MünchenBeiNacht - Ewald
 
Ich frage mich nach wie vor, wie ich das Histogramm bewerten und einstellen muss:
Sharpcap: Histogrammpeak soll links am Rand liegen, sonst Überbelichtung oder/und Light pollution zu hoch (Mond)

die hier gezeigten Histogramme zeigen den Peak in der Mitte, das kleine Histogramm re zeigt ein anderes Bild.
Welches Histogramm gilt?
 

Anhänge

  • Unbenannt.JPG
    Unbenannt.JPG
    134,6 KB · Aufrufe: 68
  • Unbenannt2.JPG
    Unbenannt2.JPG
    85 KB · Aufrufe: 106
Hallo Edwin,

du hast in deinem "großen" Histogramm das Häkchen bei Logarithmisch gesetzt, daher die andere Form. Und rechts wird es Linear sein.
 
Hallo Harald , das Histogramm ist vom Threadstarter.
OK, das verstehe ich, das heisst dann auch dass ich immer die Einstellung save mit adjudments anhaken muss um meine von mit vorgenommenen Änderungen am Histogramm auch nachher im Bild zu sehen weil ansonsten das Bild zb als 16 Bit Stack aufgenommen wird egal welche Regler ich betätige?
Wenn das so ist, verstehe ich den Unterschied zwischen Punkt 3 und 4 nicht.

Live Stacking
Save as 16 Bit Stack will rescale the stacked data linearly between the 0 and the maximum pixel value into the range 0 to 65535 and save this as a 16-bit FITS file. The 16-bit FITS option is the default as it gives a high bit depth image with the full range of the image used (i.e. brightest pixel is 65535).


· Save as Raw (32-bit) Stack will save the full 32-bit stack data as a 32-bit FITS file. The data will be bitshifted to fill most of the available range of 32-bit data (the amount of bitshifting will be stored in the BITSHIFT header of the fits file). Note: when using Sigma Clipped stacking, the 32 bit values will be stretched up to a maximum value of 231-1.


· Save with Adjustments will save the image with the Live Stacking adjustments applied (i.e. after histogram adjustments and colour adjustments have been applied) as an 8 or 16-bit PNG file (depending on bit depth of camera being used).


· Save Exactly as Seen will save the image exactly as shown on screen as an 8-bit PNG file. This will include the effects of both the live stacking histogram and colour adjustments and the display stretch if one is applied.
 
In 3 und 4 ist der Unterschied nach Beschreibung ja nur 16bit bzw. 8bit, wobei bei 3. zusätzlich auch als 8 bit gespeichert werden kann. Diese beiden Möglichkeiten sehe ich aber nur zum schnellen Festhalten einer momentanen Anzeige. Die 1. der Standard und die 2. Variante sind geeignet zum Weiterverarbeiten und haben die meisten Bildinformationen. Der 2. Variante müsste man eigentlich den Vorzug geben.
 
Ich habe überlesen, dass Punkt 3 und 4 PNG files erstellt, damit hat sich die Frage erledigt...
 
Hallo @tomsen !
die hier gezeigten Histogramme zeigen den Peak in der Mitte, das kleine Histogramm re zeigt ein anderes Bild.
Welches Histogramm gilt?
Ja, das frage ich mich auch. Ich oute mich auch gerne als Looser und freue mich auf weiterführende Anregungen und Hilfe dazu.

Ich weiß nur wenn ich irgendetwas in dem kleinen Histogramm rechts anfasse und verändere schaut ab da alles bescheiden aus. Eine sinnvolle Einflussnahme ist mir dort noch nie geglückt. Ich bin da zu blöde irgend-etwas sinnvoll anzufassen, zu verändern, geschweige denn kontrolliert einzustellen. Da hilft am Ende nur noch der Klick auf Reset Histogramm um wenigstens auf den Ur-Zustand zurückzukommen.

Tendenziell gehe ich davon aus, dass in der PNG-Datei "save-as-seen" mit der Text-Ergänzung "..._WithDisplayStretch" die am PC in diesem Moment visuell sichtbare Variante aufgehoben wird. Das ist meine beobachtete Erfahrung. Diese PNG Datei ist eine 24 Bit/Pixel Variante. Das ist sicher. Die .PNG ohne der Textergänzung ist deutlich größer und hat 48 Bit/Pixel. Das ist auch sicher. Wenn ich beide Varianten abspeichere und vergleiche fällt mir auf, das bei der 48 Bit/Pixel Variante ich noch die Tonwert-Kurven etc. anpassen muss, bis ich visuell ähnlich wie bei der 24 Bit Variante bin.

So gesehen könnte man sich zu der These versteigen, dass die 48 Bit/Pixel Variante die Roh-Fassung ist, beeinflusst durch das "große" Histogramm. Die kleine 24 Bit/Pixel Variante eine Kombination aus den Rohdaten (großes Histogramm) und durch das rechte, für mich (noch) seltsam uneinstellbare Histogramm beeinflussbare Ausführung für die visuelle Darstellung ist. Gibt auch irgendwo Sinn, da vermutlich die meisten Displays wenn überhaupt nur mit 24 Bit je Pixel arbeiten dürften und die 48 Bit je Pixel (3x 16 Bit) Variante in meinem Fall mit der ASI294 Kamera die je nur 14 Bit/Pixel im ADC macht schon eine Untermenge der 48 Bit/Pixel ist.

Mir fällt zum Beispiel weiter auf, dass mein VAIO Laptop Monitor kein so großes Gamma hat wie unser Sony 50" Fernseher. Wenn ich per google chromecast zusätzlich den Laptop Bildschirm auf den Fernseher spiegele, kann ich den Laptop Schirm gar nicht so hell aufdrehen um auch nur annähernd ein visuell ähnliches Bild wie auf dem Laptop Schirm zu bekommen. Dafür denke ich wäre dann "..._WithDisplayStretch" nur für welches Display sollte man die Daten hinoptimieren? ... ... Und ich müsste mich endlich mit dem kleinen Histogramm verstehen ...

Mein bisherigen Erfahrungen sind, wenn die Bilder auf dem Sony Fernseher gut ausschauen sind sie auch auf dem "schwachbrüstigen" Laptop Schirm gut.

Willkommen in der Hölle des Farbmanagements!

Bunte Grüße - MünchenBeiNacht - Ewald
 
Hi,
OK, das verstehe ich, das heisst dann auch dass ich immer die Einstellung save mit adjudments anhaken muss um meine von mit vorgenommenen Änderungen am Histogramm auch nachher im Bild zu sehen weil ansonsten das Bild zb als 16 Bit Stack aufgenommen wird egal welche Regler ich betätige?
du hast es dir ja selbst beantwortet. ;)
"save mit adjudments" ist sozusagen ein Screenshot der aktuellen Darstellung.
Dieses Bild kann man danach weniger gut in der EBV noch bearbeiten. Es ist mM ein Bild nur zum Dokumentieren.

Es muss einem auch klar sein, dass SharpCap das Bild im Hauptspeicher hat mit aller Auflösung, allen Daten und in einem internen Format.
Erst beim Speichern wandelt SharpCap das Hauptspeicher Bild in ein spezifisches Format um.
Das Hauptspeicher Bild ist wahrscheinlich dem Fits Format sehr ähnlich, aber mit der höchsten Pixel/Bit-Auflösung, wahrscheinlich Float, das SharpCap intern kann/benutzt, damit es grundsätzlich intern zu keinerlei Verlusten kommt.

Gruß
Peter
 
Zuletzt bearbeitet:
Hallo Harald!

du hast in deinem "großen" Histogramm das Häkchen bei Logarithmisch gesetzt, daher die andere Form. Und rechts wird es Linear sein.
das habe ich auch schon vermutet. Nur nachvollziehen konnte ich es nicht! Auch nicht wenn ich das LOG-Häkchen raus genommen habe. Irgendwie habe ich immer den Eindruck behalten das die beiden Histogramme grundsätzlich unterschiedliche Kontrollinstrumente für unterschiedliche Zwecke sind mit völlig unterschiedlichen Auswirkungen sind. Aber das ist von mir völlig geraten. Verstehen tue ich es einfach nicht!

MünchenBeiNacht - Ewald
 
Hi Ewald,
Ich weiß nur wenn ich irgendetwas in dem kleinen Histogramm rechts anfasse und verändere schaut ab da alles bescheiden aus. Eine sinnvolle Einflussnahme ist mir dort noch nie geglückt. Ich bin da zu blöde irgend-etwas sinnvoll anzufassen, zu verändern, geschweige denn kontrolliert einzustellen. Da hilft am Ende nur noch der Klick auf Reset Histogramm um wenigstens auf den Ur-Zustand zurückzukommen.
ich nehme an, dass du mit dem rechten, kleinen Histogramm, das Histogramm der Live-View meinst.
Ich hatte das ja schon oft geschrieben, dass das Live-Stacking auf den Daten aus der Live-View mit Histogramm aufsetzt.
Sprich es werden auch die Histogramm Einstellungen der Live-View benutzt.
Das ist mM meistens nicht sinnvoll, da dann 2 Histogramme kombiniert werden.

Ich kenne aber zumindestens einen Fall, wo es sinnvoll sein kann.
Und zwar wenn die Sterne schon in der Live-View zu schwach fürs Alignment sind.
Dann kann man mit einem Stretch in der Live-View die Sterne etwas anheben so dass das Alignment im Live-Stacking dann funktioniert.
Aber auch das ist wahrscheinlich unnötig, da man ja im Alignment Tab die Sensitivity anheben kann.

Gruß
Peter
 
Hallo Peter,

Das ist mM meistens nicht sinnvoll, da dann 2 Histogramme kombiniert werden.
das denke ich auch. Es ist wie immer in so einem Thread, das alle Beteiligtne den Konjunktiv verwenden, wäre, sein sollte, würde, könnte .... mir geht es genau so. Nix genues weiß man. Jeder hat einen Ablauf der bei ihm funktioniert ....

;)

MünchenBeiNacht - Ewald
 
Es muss einem auch klar sein, dass SharpCap das Bild im Hauptspeicher hat mit aller Auflösung, allen Daten und in einem internen Format.
Erst beim Speichern wandelt SharpCap das Hauptspeicher Bild in ein spezifisches Format um.
Das Hauptspeicher Bild ist wahrscheinlich dem Fits Format sehr ähnlich, aber mit der höchsten Pixel/Bit-Auflösung, wahrscheinlich Float, das SharpCap intern kann/benutzt, damit es grundsätzlich intern zu keinerlei Verlusten kommt.
Hatte noch vergessen, dass das Hauptspeicher Bild nicht der Darstellung am Bildschirm entspricht.
Die Darstellung am Bildschirm ist eine Wandlung des internen Bilds in ein am Bildschirm darstellbares (Screen Transfer Function oder Display Transform mit ICC Profile, machen die Bildverarbeiter auch alle).
Man sieht sozusagen nie das echte Bild. ;)

Gruß
Peter
 
das alle Beteiligtne den Konjunktiv verwenden, wäre, sein sollte, würde, könnte .... mir geht es genau so. Nix genues weiß man.
Na ja, bei dem was ich schreibe, bin ich mir schon ziemlich sicher, dass das richtig ist. (Sonst würde ich es nicht schreiben. ;) )
Aber ich bin nicht der Entwickler von SharpCap, also ist immer auch eine Unbekannte dabei.

Und ich will natürlich immer dazu lernen.

Jeder hat einen Ablauf der bei ihm funktioniert ....
Genau so ist es und das ist gut so.

Aber es gibt trotzdem einen optimalen Ablauf/Prozess, der allerdings anhand von Performance Zielwerten (max. Kontrast, max. Farbintensität, ...) definiert werden muss.
Aber das ist jetzt zu theoretisch. ;)

Gruß
Peter
 
Zuletzt bearbeitet:
Hallo in die Runde,

danke sehr für eure Wortmeldungen. Bin natürlich fleißig am Lesen u Grübeln, auch wenn sich mir die letzten Absätze nicht voll erschließen. Mit all den Farbtiefen u den Arten der Bildspeicherung... Da fehlen mir noch die entsprechenden Grundlagen, um die Zusammenhänge zu verstehen :rolleyes: u um euch folgen zu können.

Alex, was du zum Unterschied zwischen EAA u Astrofotografie an sich sagst, weiß ich wohl. Auch wenn es manchmal nicht immer präsent in meinem Kopf ist...
Aber irgendwie möchte ich aus EAA mehr rausholen, als ich bis jetzt erreicht habe. Immer nach Besserem zu streben ist ja eine verbreitete Eigenart vieler Leute hier :y: Nur mehr Objekte visuell sichtbar zu machen (als man durchs Okular sieht) ist für mich nicht das Ende vom Lied. Kann es nicht sein u muss es nicht sein! Ewald MünchenBeiNacht Dietmar Lloyd69 u Peter AstroPZ haben in meinem ersten Thread zu dem Thema so tolle u kontrastreiche Aufnahmen gezeigt u da sieht man ja, dass viel mehr geht als bei meinen Beispielen.
Bei dir Ewald, sieht man irgendwie immer eine Entwicklung im zeitlichen Ablauf der Aufnahmen. Bestes Beispiel u ein absolutes Highlight für mich ist deine Serie von NGC7000. Sicherlich spielt da auch der passender Filter eine Rolle (???) u das eventl. Mondlicht. Aber bei mir entwickelt sich kein Bild weiter, nach zehn Minuten sehe ich das, was ich auch nach 50 min sehe. Und das macht mich irgendwie kirre o_O

Deine Erläuterungen zu den Möglichkeiten von u mit ASCOM sind auch sehr aufschlußreich. Bis jetzt steuere ich meine ganze AVX Montierung (incl. Focusser) mit Celestron CPWI Software u was die Kamera anbelangt nutze ich eben SharpCap. Klappt bislang ohne Fehl u Tadel... Aber Stellarium mit seiner deutlich besseren Optik u dem vielen MEHR an DSO samt Platesolving ist schon sehr verlockend für mich. Aber vielleicht erst zu einem späteren Zeitpunkt. Hab trotzdem schon seit langem das ASCOM Paket mit diversen Treibern (auch für Celestron z.B.) auf meinem Laptop installiert, aber nutze noch nichts davon aktiv/bewußt.
"Never change a winning team" denke ich so bei mir, wobei ASCOM mit all seinen Möglichkeiten (u Unwägbarkeiten) für mich eher der schlafender Hund ist :whistle:

So, dann einen schönen Sonntag noch für euch. Fast ganz Deutschland guckt ja heute nach oben u sieht Wolken (außer südlich von München vielleicht) Also Zeit genug, noch etwas ins Forum zu schreiben ;)
Danke dafür u Grüße aus Sachsen-Anhalt! CS Axel_
 
Hallo Alex,
also wenn Du schon CPWI und ASCOM installiert hast dann solltest Du nicht lange warten um auch Plate Solving zu nutzen. Ich habe mir damals All Sky Plate Solver installiert weil ich grundsätzlich mal wissen wollte wie das funktioniert. Die Installation der Platten dauert ewig und danach hatte ich keine Zeit mehr mich mit dem Programm zu beschäftigen und habe es erstmal vergessen. Also nie etwas mit dem Programm selbst gemacht oder eingestellt. Als ich die Sache dann wieder angehen wollte in SharpCap auch PlateSolving zu nutzen um meine Ziele einfach auch richtig ins Bild zu setzen war das ganze so unglaublich einfach! Ging in den Einstellungen auf PlateSolving und da hat SharpCap schon selbst die Installation von ASPS erkannt. Unter Hardware musste ich noch bei Mount CPWI auswählen und so war die Steuerung der Montierung aus SharpCap (über die ASCOM Treiber) direkt möglich.
Mit Kombi CPWI , SharpCap/ASPS mache ich kein Alignment mehr, das macht alles SharpCap für mich, auch das einnorden mache ich über SharpCap.

Ich stelle die Montierung grob nach Norden, starte CPWI und dort nur das Quick Align, einfach wie es ist bestätigen damit CPWI sein Aligment bekommt ob es jetzt stimmt oder nicht. Danach wird SharpCap gestartet und dort mache ich das Polar Aligment damit die Montierung sauber eingenordet wird. Ist das erledigt wird über CPWI einfach ein Stern angefahren, in der Regel ist der natürlich nicht im Bild aber wir haben ja PlateSolving. In der Montierungssteuerung bei SharpCap ist der Button "PlateSove and Resync" , das PlateSolving startet und wenn die richtige Position gefunden wurde fährt das Teleskop den Stern exakt an und CPWI ist mit SharpCap synchronisiert. Ist das einnorden sauber gemacht werden jetzt die Ziele sauber angefahren, besser als jedes 3 Sterne Alignment was man machen kann. Und für die Feinheiten das Objekt nochmals exakt zu zentrieren gibt es ja wieder das PlateSolving! Übrigens kannst Du auch Stellarium über die ASCOM Treiber auf CPWI zugreifen lassen und das Teleskop dann über Stellarium steuern. Selbst habe ich das aber noch nicht gemacht.

Was deine andere Erfahrung mit der Belichtungszeit der Objekte angeht so kann ich diese auch nur bestätigen. Die meisten Objekte sind nach wenigen Minute so gut zu sehen das man danach für längere Zeit keine wesentlichen Veränderungen mehr erkennen kann. SharpCap holt da am Anfang schon viel aus den Daten raus. Da ist auch jedes Objekt anders. Gute Astrofotos haben ja teilweise mehrere Tage Belichtungszeit und erfordern danach noch Stunden mit der Entwicklung um auch wirklich die Details auszuarbeiten. Diese Kunst erweise ich meinen Respekt und weis zugleich das ich das so für mich nicht machen möchte. Du kannst aber natürlich mit SharpCap auch mehrere Stunden die Aufnahme laufen lassen und danach die Rohdaten als "Fits" abspeichern und mit der Bildbearbeitung danach das Astrofoto entwickeln. Die Basis dafür hast Du ja auch.
Diese Woche habe ich mir am Pferdekopfnebel auch die Zähne ausgebissen. Sowieso schwieriges Objekt und bei mäßigem Seeing und beinahe Vollmond ist das Bild mit längerer Belichtungszeit eher wieder schlechter geworden. Es lief gerade das Fussball Pokalspiel und so habe ich auch einfach mal laufen lassen. Mein EAA Ziel habe ich erreicht, ich habe den Pferdekopfnebel selbst gesehen, aber das Bild als Astrofoto ist eher was für die Mülltonne :) Ich hänge es mal an damit Du siehst das auch 1/2 Jahr Erfahrung noch keinen Automatismus bedeuten :)

Grüße und CS
Dietmar
 

Anhänge

  • IC434 Pferdekopfnebel 369frames_5535s_19.01.22 (2).png
    IC434 Pferdekopfnebel 369frames_5535s_19.01.22 (2).png
    2,4 MB · Aufrufe: 97
Hi Dietmar,

gleicher Gedanke, aber bei mir sah der Pferdekopf noch schlechter aus. Bei dir ist er doch ganz ordentlich.

Ich habe auch die Erfahrung gemacht, dass die Verbesserung des Bilds durch längere BLZ am Anfang im Minutenbereich sehr schnell ansteigt aber dann extrem abflacht.
Ob man es jetzt 10 oder 20min laufen lässt macht oft keinen grossen Unterschied mehr.

Aber das ist gut so, weil das entspricht auch dem was ich machen will. Es ist ja EAA, ich will nicht stundenlang ein Teleskop automatisch laufen lassen. Ich will Objekte beobachten.

Gruß
Peter
 
Hallo Dietmar,

auf deinem Bild ist starkes Walking Pattern Noise (Regenrauschen) zu sehen, was dieses Streifenmuster erzeugt.
Das kommt durch eine Drift während den Aufnahmen, durch ungenaues einnorden.
Abhilfe bringt da das Dithern und oder sehr genaues einnorden. Das kann man in Sharpcap alles machen.
Dithern funktioniert nur mit Guiding. Wenn nicht kann man auch manuell Dithern.

VG Cl.-D.
 
Danke Cl-D., ja stimmt die Streifen waren mein größtes Problem, habe aber mit SharpCap eingenordet, das wundert mich jetzt ein bisschen das ich die Ursache dort suchen muss. Muss ich wohl auch mal prüfen was da los war
 
Hallo in die Runde,
möchte nochmal danken für eure Meinungen hier, speziell zuletzt wegen der Verbesserung der Bilddaten im Verhältnis zur Gesamtzeit der Stacks.
Ist quasi genau das, was ich bei mir auch beobachtet habe u eigentlich beheben wollte. Muss ich halt mal zusehen, wie ich aus den ersten 15-30 min das Optimum heraus hole. Leider ist bei uns seit 14 Tagen nix mit CS :n: so dass ich mit neuerlichen Versuchen wohl noch warten muss.
Anfrage an dich, Dietmar: Nutzt du für deine EAA eigentlich irgendeine Art von Filter? Ich finde, bei deinen Aufnahmen ist der Kontrast stets deutlich besser als bei meinen. Bei meiner QHY 294 wurde mir ja ein UV/IR Cut Filter empfohlen... zu anderen Filtern hat mir bislang noch die Überzeugung gefehlt. Sind ja auch nicht ohne, die Preise... Aber nimmt so ein UV/IR Cut nicht sogar Signalstärke weg, die mir zu besseren Darstellungen verhelfen würde???
:unsure: Vielleicht muss ich dazu nochmal eine Umfrage hier starten, um mehr Allgemeinwissen dazu zu erhaschen.
Bis dahin viele Grüße u CS euch allen. Axel_
 
Ach, hab ich doch glatt vergessen...
danke dir vielmals, Dietmar Lloyd69 für die ausführliche Beschreibung, wie du dein Teleskop über Sharpcap u CPWI verbunden hast u damit Platesolven kannst. Klingt zu verlockend für mich, um es nicht auch zu versuchen ;) Z.Z. werden bei mir die passenden ASPS Daten installiert. Dauert wirklich ne halbe Ewigkeit...
Ich hoffe mal, ich bekomme das alles irgendwie zum Laufen... und falls nicht, dann auf deine weitere Unterstützung.
Lass es dir gut gehen :teleskop: Axel_
 
Hoi Alex, nein ich nutze keinen Filter, aber ich bin ständig mit den Farbkanälen /Balance und dem Schwarzwert /Mittelwert am spielen.
 
Status
Es sind keine weiteren Antworten möglich.
Oben