Wer ist noch dem EAA verfallen?

Hallo Oli,
du hast alles so eingestellt wie ich es normalerweise auch habe. Nichts ungewöhnliches für mich. Vielleicht offenbart das Protokoll irgendwas. Bin gespannt und interessiert was Du herausfindest.

Servus - MünchenBeiNacht - Ewald

Hallo Ewald,

hier der entscheidende Auszug aus dem Protokoll:

Debug 23:46:57.441131 #10 Starting ZWO Exposure of 16000ms in bool SharpCap.Cameras.ASI.ASICameraProxy.StartExposure()
Warning 23:46:58.284369 #31
Frame not stacked because : Frame brightness too low in void SharpCap.FrameTransforms.LiveStacking.LiveStackViewModel.SendToMainLogger(LoggingEvent loggingEvent)
Debug 23:47:14.126228 #10 Finished ZWO Exposure of 16000ms, gotFrame = True in bool SharpCap.Cameras.ASI.ASICameraProxy.GetFrameData(int timeout, BufferFrame frame, CancellationToken cancellationToken)


das kann ich mir nicht erklären, denn - wie gesagt - es hatte sich nichts geändert und als ich das Livestacking neu gestartet habe, lief es auch wieder...

Könnte das vielleicht auf ein Problem der Kamera hindeuten?

Seltsam

CS.Oli
 
Guten Morgen auch zusammen :D,

Wir haben noch nicht mal einen Bereich für EAA, die Amis jetzt schon innerhalb EAA sogar einen reservierten Thread für Smart Teleskope.

Aber Vorsicht: dort ist keinerlei Postprocessing erlaubt!
nun ja, wir hier als EAA-ler können uns quasi selbst verwalten ;).
Unterliegen keinen Restriktionen die vorgegeben sind. Zumindest haben wir, wenn welche vorhanden sind :unsure:, sie uns selbst auferlegt :D.
Und...
alles nicht im lästigen Englisch ;).

:coffee::alien:
 
Guten Morgen,

also ich finde Englisch nicht lästig, man braucht es ja eh in vielen Bereichen. Siehe Handbuch von SharpCap oder ähnliches. Je mehr man sich darin übt, desto leichter fällt es einem dann schließlich auch.

Aber was ich gerade gesehen habe: man denkt wohl bei CN darüber nach, Postsprozessing in gewissem Umfang zuzulassen. Zumindest im Bereich Smart Teleskope. Das gibt sicher heiße Diskussionen! HIer ist der Link zu dem entsprechenden Post:


CS.Oli
 
Guten Morgen,

also ich finde Englisch nicht lästig, man braucht es ja eh in vielen Bereichen. Siehe Handbuch von SharpCap oder ähnliches. Je mehr man sich darin übt, desto leichter fällt es einem dann schließlich auch.

Aber was ich gerade gesehen habe: man denkt wohl bei CN darüber nach, Postsprozessing in gewissem Umfang zuzulassen. Zumindest im Bereich Smart Teleskope. Das gibt sicher heiße Diskussionen! HIer ist der Link zu dem entsprechenden Post:


CS.Oli

Guten Morgen, da stimme ich zu. Englisch verstehen ist kein Problem, ich bin nur nicht so geübt im Sprechen, weil ich es im Alltag fast nie benötige. Da brauche ich immer ein wenig, um den Rost aus dem Hirn zu bekommen. ;) Aber lesen und hören geht ohne Probleme, auch wenn ich nicht jedes Wort auf Anhieb verstehe, man lernt ne Menge aus englischsprachigen Videos und Foren.

Aber das nur am Rande. Was fehlendes Postprocessing angeht, so finde ich die Radikalität bei CN zwar albern, weil es mich an religiöse Fanatiker erinnert, aber ich finde es hochinteressant, mal die Roh-Ergebnisse zumindest daneben zu setzen. Der Kompromiss bei CN könnte ja eben sein, dass man das unbearbeitete Bild und das nachbearbeitete Bild gleichzeitig hochlädt. Gerade wenn man sieht, was Leute, die EBV können, aus dem Seestar rausholen, bin ich total baff. Im Astrotreff hat Jochen (joginet) heute Morgen ein Bild von M81 hochgeladen, das aussieht, als sei es von einem viel größeren Teleskop aufgenommen. Das liegt halt an der EBV, obwohl er die Daten auch nur quick und dirty durch PI und PS gejagt hat, nachdem er gestern 48 Minuten die Galaxie belichtet hat. Ich selbst hab noch kein vernünftiges Bild von M81 aus dem Seestar gezogen. Weil ich es nicht kann. ;)

Aber ich kann schon verstehen, wenn bei CN der Begriff EAA eng gefasst wird, um eben die Unterschiede zur ausreizenden Astrofotografie deutlich zu machen. Mich interessiert halt beides. Die Ergebnisse, die out of the Box aus den Geräten kommt und was mit geringen Mitteln noch rauszuholen ist. Was mich nicht interessiert ist stundenlanges Bearbeiten am Rechner. Das überlasse ich den Profis.

LG Olaf
 
also ich finde Englisch nicht lästig, man braucht es ja eh in vielen Bereichen. Siehe Handbuch von SharpCap oder ähnliches.
;)
als ich noch als IT-ler unterwegs war, war Englisch täglich Brot. Jetzt als Postzusteller nicht mehr :D.
SharpCap-Handbuch lass ich mir vom Rechenknecht übersetzen ;). Zumindest die Passagen die mich interessieren.

Zumindest im Bereich Smart Teleskope. Das gibt sicher heiße Diskussionen!
da sind wir hier im Forum doch auch geübt :affemund:.

Fände es ja, wie schon mal erwähnt, auch schön wenn es ein Oberforum EAA gäbe und da drunter eben heilt etwas detailliertere Unterforen.
Aber... mmhhh... sagen wir mal, ohne eine geleitete Führung wie ich EAA zu betreiben habe. Ist hier ja im klassischen Astrofotografie-Bereich auch nicht.

Na schaun wir mal was sich hier so ergibt :y:.
 
Hallo Olaf,
tach auch zusammen :D ,

Was fehlendes Postprocessing angeht, so finde ich die Radikalität bei CN zwar albern, weil es mich an religiöse Fanatiker erinnert, aber ich finde es hochinteressant, mal die Roh-Ergebnisse zumindest daneben zu setzen.
religiöse Fanatiker sind halt auch albern.
die as seen Speichrung neben dem bearbeiteten Bild stellen.
In etwa so:
Topaz_DeNoise_Bildschirmfoto_2023-10-17_14-49-44.png

vielleicht auch beschreiben oder kurze Datenangabe welche Einstellungen man vorgenommen hat.

um eben die Unterschiede zur ausreizenden Astrofotografie deutlich zu machen.
da sollte man bei EAA dann schon drauf achten, dass das nicht ausufert.
Diese, ich sag jetzt mal one-klick-tools, kann man schon akzeptieren. Aber ewig und drei Tage an den Bildern feilen :unsure:... ... ...

Die Ergebnisse, die out of the Box aus den Geräten kommt und was mit geringen Mitteln noch rauszuholen ist
das trifft es gut :y:.

Was mich nicht interessiert ist stundenlanges Bearbeiten am Rechner. Das überlasse ich den Profis.
dito.
 
Hallo!

Ich bin sehr froh, dass wir EAALer/Innen hier im schwarzen Forum kein "Kasten-Denken" haben und wenn es nach mir geht, braucht es keinen speziellen EAA-Bereich! Es finden sich doch mehr oder weniger alle Interessierten in den relevanten Threads zusammen. Wie hier eben auch gerade! Auch die Unterscheidung keine Nachbearbeitung, ein bisschen, mittel bis viel Nachbearbeitung erlaubt oder nicht erlaubt ! Hallo! o_O Geht's noch? Darks sind erlaubt! Aber Hotpixel-Removal verboten? Gradient Removal verbieten? Und nur Flats erlauben! Aber nachträglich Softflats verbieten? Oder der Gipfel des Unsinns nach meiner Meinung ist es vorschreiben zu wollen, wie lange jemand stacken darf. Dreißig Minuten, sechzig Minuten, neunzig Minuten - was soll so eine willkürliche Definition? Wir schauen auf Galaxien und Nebel von denen das Licht Tausende, Zehntausende, Hundertausende, Millionen Jahre und länger unterwegs war, dann darf ich es nur eine Stunde lang anschauen? Wer will das wem und warum vorschreiben? Vielleicht wären Richtlinien für visuelle Beonachtungen sinnvoll? Mit einem 8" Newton darf man nur 8 Minuten schauen. Mit 20" Newton muss man 20 Minuten lang das gleiche Objekt beobachten! _jungeschlagen:

Wenn man in Schubladen denkt, bremst man Fortentwicklung aus. In Cloudynights wurde ernsthaft darüber sinniert/diskutiert ob man im EAA Bereich die Verwendung von Filterrädern verbieten soll. Hintergrund es gibt Software (Jokular) die Live-stacking mit Filter/Filterräder und S/W Kameras durchführt. Man nehme eine S/W Kamera, ein elektrisches (USB) Filterrad drei Filter für R, G, B und rechne entsprechend live die Einzelbilder farblich passend zusammen. Und weiter gesponnen, zu den drei Filtern weitere Schmalbandfilter und man kann dann mit EAA Live-Stacking Bilder erzeugen, die im Moment technisch gesehen nur "echter" Astrofotografie vorbehalten ist. Teufelszeug! Wo ist Knoblauch, der Hammer und der Holzpflock.

Als ich über Live-Stacking mit S/W Kamera und Filterrad gelesen habe, war mein Reflex, geht so was vielleicht schon mit Sharpcap 4.1? Leider nein! :cry: Im Sharpcap-Forum nachgeschaut - ich war natürlich nicht der Erste der so was haben will. :cool: Robin darauf angesprochen, meinte er nur folgendes: (Zitat Sharpcap-Forum)
this thread is collecting a lot of +1 votes, so yes, it's something that will be in the plan for the future. I have a number of other things already on the list for 4.2, so it won't happen straight away, but hopefully in time.
Sharpcap 5.0 :p

Neugierig und interessiert bleiben! MünchenBeiNacht - Ewald
 
Moin auch zusammen :D,

Mit einem 8" Newton darf man nur 8 Minuten schauen. Mit 20" Newton muss man 20 Minuten lang das gleiche Objekt beobachten! _jungeschlagen:
Brennweite wäre mir lieber. Dann schau ich nur noch mit dem C8 ;).

Und weiter gesponnen, zu den drei Filtern weitere Schmalbandfilter und man kann dann mit EAA Live-Stacking Bilder erzeugen, die im Moment technisch gesehen nur "echter" Astrofotografie vorbehalten ist. Teufelszeug! Wo ist Knoblauch, der Hammer und der Holzpflock.
ist da eventuell die Möglichkeit vorhanden, das da gewisse Leute aus der klassischen Ecke Befürchtungen haben, dass Ihnen der Rang abgelaufen werden könnte :unsure:?
Ich bin jetzt nicht der Filter-Fanatiker, aber wer sich damit beschäftigen möchte, bitte doch. Wie er das dann betreibt, ob mit der Hand oder halbautomatisch oder oder oder... ... ...

Auch wenn mir Software, egal welche jetzt, Möglichkeiten, Tools, Features, ... ... ... zur Verfügung stellt, heißt das ja noch lange nicht, dass ich das auch nutzen muss.
Wenn es mir zusagt OK, wenn nicht, auch gut.

EAA ist das Ding, was ich für mich gefunden habe.
Das handhabe ich so, wie es meinen Bedürfnissen, Bedingungen, ... ... ... entgegen kommt. Basta ;).
Wenn ich 10 Minuten stacken will, dann stacke ich 10 Minuten. Wenn ich 5 Stunden... ... ...
Wenn ich einen lilablasblauen Filter vor meine Kamera schrauben will, dann mach ich das.

In diesem Sinne :coffee::coffee::alien:
 
übrigens: wer sich für Dunkelnebel interessiert, der findet hier sehr schöne Anregungen für EAA:


CS.Oli
 
Ich bin jetzt nicht der Filter-Fanatiker, aber wer sich damit beschäftigen möchte, bitte doch.
Hallo Mathias,
der Hintergedanke beim "Filter-Live-Stacking" ist nicht so sehr die Verwendung von Filtern schlechthin sondern, dass eine S/W Kamera empfindlicher und höher auflösend ist. Zwar haben das S/W Modell und das Farb Modell von der Auflösung her die identische Auflösung. Aber bei einer Farbkamera werden je vier Pixel zusammengefasst. Dabei werden zwei Pixel mit einem GRÜN-Filter, ein Pixel mit einem ROT-Filter, ein Pixel mit einem BLAU-Filter bedruckt. Die sich daraus ergebene Farbinformation des jeweiligen Pixels wird dann für die anderen drei Pixel interpoliert. Dadurch hat man zwar Zeichnungsmäßig die volle Auflösung, Farbmäßig aber eine Interpolation zwischen halber und voller Auflösung. Ich vermute auch, dass diese "Filter-Bedruckung" auch weniger effizent ist wie ein hochwertiger, optischer Filter, der vermutlich on Top auch nocht Licht-durchlässiger ist. Das ist jetzt aber reine Spekulation von mir.
Ich kaufe mir in Kürze eine ungekühlte ASI533 und würde Sharpcap "Filter-Live-Stacking" bereits unterstützen würde ich mir sicher ein S/W Modell kaufen. Ich verspreche mir noch feinere Details und vermutlich auch kürzere Stackingzeiten. Müsste man natürlich in Praxis testen ob es sich dann so bewahrheitet. Auch frage ich mich wie lange eine elektrische Filterschublade mechanisch funktioniert, wenn alle vier Sekunden die Filter gewechselt werden.
Servus - MünchenBeiNacht - Ewald
 
Hi,

naja, OSC versus Mono:
Der Vorteil von OSC ist doch gerade, dass man parallel alle 3 Farben aufnimmt und dadurch nur ein drittel der Zeit benötigt.
Genau das ist doch auch für EAA wichtig.

Oder sind wir jetzt doch bei "normaler" Astrofotografie? ;)

Gruß
Peter
 
Hallo Ewald,

das mit den Filtern und Mono oder Farbe war mir schon klar.
Mir ging es darum zu verdeutlichen, das solch restriktiven Maßnahmen wie bei CN nicht so mein Ding sind.
Sicherlich sollten ein paar Anhaltspunkte da sein, die EAA für uns hier im Forum definieren.

Bin da auch mehr bei
Der Vorteil von OSC ist doch gerade, dass man parallel alle 3 Farben aufnimmt und dadurch nur ein drittel der Zeit benötigt.
das ganze Gefriemel, sorry ;), mit Filtern ist nicht so meines.
Bin da mehr von der puristischen Fraktion :D.
Bin da mehr bei Olaf.
Die Ergebnisse, die out of the Box aus den Geräten kommt und was mit geringen Mitteln noch rauszuholen ist. Was mich nicht interessiert ist stundenlanges Bearbeiten am Rechner. Das überlasse ich den Profis.

Selbiges oder ähnliches habe ich ja schon zu den hier aufploppenden Software geschrieben.
Mit dem was mir SharpCap mittlerweile liefert und dem DeNoise von Topaz habe ich mich schon angefreundet :D.

Aber das möge jeder für sich selbst entscheiden.
 
N'abend auch zusammen :D,

jetzt haltet mich für b l ö d e.
Mal eine Frage, bei der ich jetzt etwas ins trudeln komme oder einfach nur nicht wirklich Gedanklich umsetzen kann.

Plate-Solven und Star-Alignment (1,2 oder3).
Kann ich mir das Alignment sparen?
Also Montierung an, Alignment sparen, mit der Software für die Montierung oder Stellarium/Skychart irgend einen Punkt am Himmel ansteuere, Plate-Solven mit SharpCap und ich bekomme (im günstigsten all) ein Ergebnis.
Jetzt weiß ich wo das Teleskop hinschaut. Prima ;).
Was passiert wenn ich jetzt in Stellarium/Skychart ein neues Objekt auswähle und anfahren lasse?

M.E. fährt die Montierung irgendwas an. Aber nicht das gewünschte Objekt.
Trotz GPS oder korrekter Dateneingabe, Datum, Uhrzeit, Längen-/Breitengrad... ... ... weiß die Montierung ja nicht genau wo sie steht. Abgleich zwischen internem Himmelsabbild in der Montierung und tatsächlichem/realen Himmel hat ja nicht statt gefunden.
 
Doch, funktioniert genau so wie du es beschreibst. Wenn die Montierung halbwegs eingenordet ist, dann einfach ein Objekt abfahren, plate solve and sync und gut. Ich hab schon ewig kein Alignment mehr gemacht.
Richtig. Ich arbeite zwar nicht mit Sharpcap,aber das gilt analog bei der AsiAir genauso. Platesolving hat ja gerade den Sinn, dass man das Alignment nicht mehr machen muss. Einnorden ist gleichwohl nach wie vor wichtig.

LG Olaf
 
Hallo Mathias,
Abgleich zwischen internem Himmelsabbild in der Montierung und tatsächlichem/realen Himmel hat ja nicht statt gefunden.
naja, du hast deiner Montierung ja auch einen Startpunkt (Homeposition) vorgegaukelt.
Dadurch hast du dann beim Anfahren des Objektes und Platesolven einen zweiten (realen) Punkt zum Abgleich.
So wie ich das verstehe wird nun einfach die Differenz zwischen Startpunkt und erwartetem Zweiten Punkt bzw. eben realem zweitem Punkt errechnet / verrechnet.
Sollte also meinem Verständnis nach wie ein zwei-Punkt-Alignment funktionieren.
...jedenfalls funktioniert es.

Gruß
Tobi
 
Hallo Mike,
hallo Olaf,

Aha, besten Dank für diese Information :y:.
Dann übermittelt also SharpCap/AsiAir die Daten an die Montierung und korrigiert das Pointing-Modell.

Wenn die Montierung halbwegs eingenordet ist
ich muss nicht einnorden ;), Alt/AZ.

Also das Teleskop schaut irgendwo hin, Plate-Solven, Ergebnis, syncen, Bildchen machen ;), neues Objekt über Stellarium/Skychart und das sitzt dann mit evtl. Abweichungen, Plate-Solven und gut ist.

Muss ich dann doch mal, wenn dann das Gerüst vom Balkon verschwunden ist, ausprobieren.
 
Naja, auch die Alt/Az sollte beim Einschalten Level nach Norden zeigen, damit das erste Objekt grob angefahren werden kann. Sonst must du ja ein Plate soll über den ganzen Himmel machen und das kann dauern.
 
Vielen Dank für Eure Informationen.
Ich muss das mit meiner iOptron mal durch spielen.
Die Montierung hat halt, durch das GPS bedingt, die Eigenart, die man nicht abändern kann, sich einmal um sich selbst zu drehen. Somit erlangt sie Zeit, Datum und den ganzen Summs. Das darauf folgende automatisch startende Alignment, an einem Objekt, kann man abbrechen. Oder ich lasse es durchlaufen ohne zu zentrieren und Plate-Solve dann.
Muss ich durchspielen.
In wie weit mir das jetzt einen Vorteil verschafft, keine Ahnung.

Ich werde berichten, sobald das Gerüstproblem behoben ist und das Wetter mit spielt.
 
Hi,

also meine Erfahrung mit der AZ-GTi ist, dass man zumindestens ein Alignment machen sollte und man sollte auch tunlichst das Teleskop am Anfang waagrecht nach Norden ausrichten. Das ist wohl der erste, grobe Punkt des Modells.

Plate Solving und Sync bewirkt, dass ein Sync Punkt in der AZ-GTi abgelegt wird.
Aber man sieht in der SynScan App, dass diese Sync Punkte mM anders berücksichtigt werden.
Die "echten" Alignment Punkte haben wohl eine höhere Priorität.

Natürlich kann man auch nur mit Plate Solving und ohne Alignmment ein Objekt nach und nach anfahren, aber das Tracking ist dann mM miserabel.
Ausserdem kann man nur Syncen, wenn Tracking aktiv ist (ASCOM Forderung) und Tracking verlangt natürlich ein Alignment (Henne Ei Problem ;) ).

Gruß
Peter
 
Hallo Peter,

auch Dir danke.

Ich muss da wohl wirklich mal testen und weniger an EAA denken ;).
Wie sagt man so schön, Versuch macht kluch :D.

Und ob da ein entscheidender Vorteil entsteht, echt keine Ahnung.
Die ganze Prozedur ist mir in Fleisch und Blut übergegangen.
Einschalten, drehen lassen, 1-Objekt-Alignment durchlaufen lassen, kurz zentrieren, Okular raus Kamera rein, Montierung und Kamera mit Notebook verbinden.
SharpCap usw. usw. usw..
Das späte anschließen von Kamera und Montierung ist durch das blöde GPS-Gedrehe bedingt. Habe keinen Mini-PC direkt an der Montierung angepappt.
Und da ich mit LAN-Kabel arbeite, WLAN auf dem Balkon ist grotten schlecht, würde der mir auch nichts bringen.

Zeitlich bewegt sich der ganze Aufstand in 10 bis 15 Minuten. Das halte ich selbst im Winter so grad noch aus ;).
 
Hi Mathias,
Einschalten, drehen lassen, 1-Objekt-Alignment durchlaufen lassen, kurz zentrieren, Okular raus Kamera rein, Montierung und Kamera mit Notebook verbinden.
SharpCap usw. usw. usw..
mM kannst du auch gleich mit der Kamera das Alignment durchführen.

Einfach die erste Position/Bild in SharpCap Plate Solven und dann zB mittels Kontrolle in Stellarium auf den Alignment Stern fahren.
Dann sollte der Stern in SharpCap in der Live View zu sehen sein und dann noch genau zentrieren. Fertich!

Gruß
Peter
 
Also Montierung an, Alignment sparen, mit der Software für die Montierung oder Stellarium/Skychart irgend einen Punkt am Himmel ansteuere, Plate-Solven mit SharpCap und ich bekomme (im günstigsten all) ein Ergebnis.
Naja, auch die Alt/Az sollte beim Einschalten Level nach Norden zeigen, damit das erste Objekt grob angefahren werden kann.
man sollte auch tunlichst das Teleskop am Anfang waagrecht nach Norden ausrichten. Das ist wohl der erste, grobe Punkt des Modells.

Hallo!

ich habe mich mit Alignment, ja / nein auch intensiv beschäftigt und dazu schon wiederholt Test früher mit der Celestron Nexstar und später mit der Skywatcher AZ-EQ5 gemacht. Sowohl mit als auch ohne dem Starsense Autoalignment Modul.

Auf Grund meiner Tests bin ich überzeugt es braucht im AltAZ-Betrieb zu Beginn des Alignments weder eine Nordausrichtung noch eine waagrechte Nivelierung des Teleskops. Diese Vorgabe aus den Manuals dient lediglich dazu, dass dem Anwender geholfen wird um den ersten, vorgeschlagenen Alignment Sterns halbwegs genau anzufahren. Um diesen ersten, vorgeschlagenen Alignment Stern überhaupt treffen zu können, muss die Montierung natürlich von einer ihr bekannten Position aus losfahren. Darum Norden. Darum waagrecht. Stellt man das Teleskop irgendwie hin und startet das Alignment trifft die Montierung natürlich nicht ansatzweise den ersten Alignment Stern. Fährt man aber dann per Hand zum ersten Alignment Stern und führt das Alignment durch macht es in der Folge keinerlei Unterschied
im Verhalten und Treffsichheit des Gotos als wenn man zu Beginn aus von Norden und waagrecht niveliert gestartet wäre. Bei allen meinen Test hat sich immer herausgestellt, dass ein 1-Sterne Alignment niemals eine ausreichende Goto-Genauigkeit und gute Nachführgenauigkeit ergibt. Es braucht mindestens ein Zwei Sterne-Alignment. Wird beim 1-Sterne Alignment das gewünschte Ziel nicht genau genug getroffen, kann man kann sich natürlich mit Platesolving im Sharpcap behelfen um noch zum Ziel zu kommen. Allerdings konnte ich nie nachvollziehen ob ein dann ausgeführtes "SYNC" zur Montierung eine tatsächliche Verbesserung des Pointing Modells bringt.

Ich habe mich vor langer Zeit für das Celestron Starsense Autoalignment entschieden und schätze es sehr, dass innerhalb von ca. zwei Minuten ein mehrfaches Stern Alignment erledigt ist. Mit Starsense ist es auch völlig egal wie man das Teleskop aufstellt. Es braucht auch hier keine Nordausrichtung oder waagrechte Nivellierung.

Servus - MünchenBeiNacht - Ewald
 
Hallo zusammen :D,

mM kannst du auch gleich mit der Kamera das Alignment durchführen.
würde ich gern so machen, aber durch das blöde GPS-Drehen der Montierung, einmal um die eigene Achse, wickele ich das USB-Kabel der Kamera um die Montierung :eek:.
Ich bin mit der iOptron einigen Sachzwängen unterworfen.

Hallo Ewald,
Dir gilt auch mein dank für Deine Testreihe.
Bei mir funktioniert das 1-Objekt-Alignment recht gut.

Meine Montierung steht mehr oder weniger am selben Fleck. Das Stativ mit Säule bleibt ständig draußen (abgedeckt).
Meine Parkposition, das Teleskop steht senkrecht. Öffnung nach Oben.
Einschalten, GPS-Drehung, automatisches Alignment Objekt anfahren, zentrieren, blablabla... mit der Prozedur habe ich ganz selten Probleme. Wenn dann liegt es an mir, DAU halt ;).
 
Hi,

so, ich habe mich mal mit der Synscyn Pro APP beschäftigt und folgendes gelernt ( man sollte manchmal das Manual lesen ;) ):

Für das Pointing Modell spielt wohl die Nordausrichtung oder Parkposition keine Rolle. Sondern wirklich nur zur ersten groben Positionierung.

Sync bewirkt keinen Alignment Point!
Sondern nur eine höhere Genauigkeit in einem Feld von 5 x 5 Grad.

Alignment Points (bis zu 3) bekommt man also nur durch die Alignment Routine.

Soweit alles klar. Jetzt gibt es aber noch einen für mich sehr interessanten Hinweis:

Ein Sync (zB aus einem Plate Solving) kann auch zu einem Alignment Point werden, wenn das Menu Alignment -> Align with Sync offen ist.

Das Menu gibt es in der aktuellen Version so nicht mehr, aber es könnte das neue Untermenu Sync Samples sein.
Wenn das funktioniert, ist das für mich die Lösung.
Dann kann man nämlich die Montierung einfach irgendwo hinzeigen lassen, Plate Solven und schon hat man einen Alignment Point.
Das wäre super!

Das ganze gilt natürlich nur für die Synscan Pro APP. Aber ich denke, dass sich andere Montierungen ähnlich verhalten werden.

Gruß
Peter
 
Zuletzt bearbeitet:
Hallo Peter,

ja super, besten Dank für Deine Mühe :y:.

Da muss ich dann bei meiner iOptron schauen wie das funktioniert.

Habe jetzt mal den iOptron Commander konsultiert. Wohl etwas spartanischer ausgestattet.
Kann da z.B. kein Alignment durchführen :unsure:. Sync to target ist auch nicht :oops:.
Handcontroller scheint umgangen zu werden, wenn mit Planetariumssoftware gesteuert wird. Nur die Koordinaten des ausgewählten Objekts werden an den iOptron Commander übermittelt.

Das muss ich alles mal durch spielen wenn die Sterne leuchten :D.
 
Hallo zusammen,

ich arbeite schon lange mit der alten SW „Align with sync“ Routine und bin kann nur positives berichten (StarDiscovery Alt-Az Mount). Ich mache quasi ein semiautomatisches Alignment was innerhalb von zwei Minuten abgeschlossen ist. Die alte Version 1.19.20 läuft bei mir immer noch am stabilsten. Ich habe festgestellt, dass 2 gut gewählte Positionen am Himmel ausreichen, um ein gutes Modell zu generieren. Das Teleskop grob in der Homeposition ausrichten (das Stativ muss nicht im Wasser stehen und nur grob nach Norden schauen, Teleskop ungefähr in Waage … alles ohne Hilfsmittel).

Dann irgendeine freie Himmelsregion (Alt ca. 50°) via Software (z.B. Stellarium anfahren) und in Sharpcap Platesolven (1. Alignment-Point), dann wenn möglich ca. 90° (Az) versetzt zur 1. Position eine weitere Himmelregion via Software anfahren und in Sharpcap Platesolven (2. Alignment-Point) … fertig.

In der Sysnscan App sind dann im „Alig with sync“ Menü die beiden Himmelpositionen hinterleget und man kann das Menü verlassen. Einfacher geht es fast nicht, kein Stern muss angefahren und positioniert werden.

In den neueren Versionen heißt die Funktion jetzt „Sync samples“ funktioniert ähnlich. Nur das jetzt jedes Platesolven einen Alignment-Point erzeugt und das Himmelsmodel ständig verbessert / neu berechnet wird. Hat bei mir nur semioptimal funktioniert. Durch viel Platesolven an einem kleinen Himmelsausschnitt wird die Liste schnell voll und unübersichtlich. Diese muss dann ständig manuell bearbeitet werden (Punkte löschen).

Des Weiteren gibt es jetzt mit der Synscan App ein SharpCap Script für ein Auto-Align – funktioniert ganz ohne Benutzer Eingriff dauert aber vom Ablauf einige Zeit.

Ich werde weiterhin die stabile alte (1.19.20) Version nenutzen.

Cheers Andreas
 
Hallo Andreas, @Aldebaran77 !

ich arbeite schon lange mit der alten SW „Align with sync“ Routine und bin kann nur positives berichten
Was Du beschreibst klingt sehr interessant. Ich habe nur nicht verstanden bzw. bin nicht sicher, welche Software und welche Abläufe Du tatsächlich verwendest. Ich setze ein gänzlich anderes Procedere mit Celestron Starsense Kamera zum Alignment ein und bin aber immer schon auf der Suche nach anderen Verfahren gewesen. Eigentlich habe ich mich schon immer gefragt warum es ähnlich wie das automatisierte Celestron Starsense Autoalignment (mit nativen, extra Starsense Handkontroller und nativer, extra Starsense Kamera) nicht einen Alignment Ablauf mit einer vorhandenen Kamera und Plate Solving gibt .... :unsure:

Kannst Du zu Deinem Vorgehen/Ablauf bitte weitere Infos / Details geben? Du schreibst ...

Die alte Version 1.19.20 läuft bei mir immer noch am stabilsten.
Welche Software meinst Du? Wenn ich im Download Bereich von Skywatcher nachsehe, finde ich dort einen Link zu einer Windows Software in der Version 2.4.8: Windows 10/11 program: SynScan Pro App, Version 2.4.8 - ist das die Windows Software die Du einsetzt, nur hier im Link zu einer deutlich neueren Version als die Software mit Version1.19.20 die Du verwendest? Was für ein Betriebsystem verwendest Du?

Des Weiteren gibt es jetzt mit der Synscan App ein SharpCap Script für ein Auto-Align – funktioniert ganz ohne Benutzer Eingriff dauert aber vom Ablauf einige Zeit.
Da bin ich jetzt auch nicht sicher ob ich es richtig verstanden habe. Sprechen wir von einem automatisierten Ablauf innerhalb vom Sharcap aufrufbar? Ich kenne aus Sharpcap die sogenannten Sequencer Abläufe die ich selbst schon erzeugt und verwendet habe. Dort setzt man quasi "Batch-mäßig" Sharpcap Befehls-Reihenfolgen zusammen die man dann auch abspeichern und abrufen kann. Handelt es sich an dieser im Sharpcap Menü aufrufbaren Script die und das weiß ich jetzt nur aus dem Sharpcap Manual Phyton basiert sind?

Um im Moment nicht völlig blöde da zu stehen ... habe ich mal in das Download-Zip von der aktuellen Version geschaut ...

synscan-app-script.jpg

... und kann nicht glauben was ich da gefunden habe ... Meinst du das hier im Screenshot aufgeführte: "SharpCap_Script_Template_for _Skywatcher_GOTO_Mounts_AutoAlign.py" - ich wäre im Leben nicht drauf gekommen, dass man das in Sharpcap aufrufen kann .... :eek: .... und bei der Skywatcher Software mitgeliefert wird. Aber es steht da sinngemäß so! o_O

Ich werde dies bei nächster Gelegenheit zusammen mit meiner Skywatcher AZ-EQ5 ausprobieren, wenn es mal nicht in der Nacht regnet .... Du hast davon nicht irgend welche Screenshots? Um es vorab schon mal kennenzulernen? Ich kann irgendwie gar nicht glauben, dass ich diese Alternative zum dem Celestron Starsense Gerödel, mal abgesehen davon, dass es auch noch richtig extra Geld kostet schon die ganze Zeit quasi direkt vor der Nase hatte .... umsonst :beobachten:

Für mich klingt das nach einem sehr interessanten Ansatz mit einer Skywatcher AltAZ Montierung und eigener, vorhandener Kamera ein "Script-gesteuertes" Alignment auszuführen. Wie gesagt, ich reibe mir gerade ungläubig die Augen. Sehr interessant was Du da beschrieben hast. Danke für den Tipp!

Bin ich der einzige Vollpfosten weit und breit? :cry: Und alle Anderen kennen und machen das bereits so? _jungeschlagen:

Servus - MünchenBeiNacht
 
Zurück
Oben