Walking Pattern Noise - Video

Status
Es sind keine weiteren Antworten möglich.
So sieht es dann mit Astroart7 und der Einstellung "Median" aus...
Überzeugt!
Fazit: DSS ist Müll!
Das erklärt auch warum unser Heiko mit Livestacking auch kein Pattern-Noise hat.

Nachtrag:
Das Rauschmuster ist immer noch leicht da, aber bei weitem nicht mehr so "dominant".
 

Anhänge

  • AA2.jpg
    AA2.jpg
    258,9 KB · Aufrufe: 126
  • AA7_Meridian_stack_Zoom.JPG
    AA7_Meridian_stack_Zoom.JPG
    94,9 KB · Aufrufe: 154
Zuletzt bearbeitet:
Moin,

Noch mal ein Nachsatz zum internen Dunkelbildabzug.
Ich habe in der Anfangsphase bei meiner 1000Da auch den internen Abzug benutzt. Und ich hatte da auch keine Probleme mit dem WPN. Kaum machte ich Darks, fingen sie an. Ich habe dennoch weiter Darks gemacht und irgendwann hatte ich sie so gut im Griff, dass ich das Rauschen und das WPN in der EBV einigermaßen beherrschen konnte. Die Zeit für den internen Abzug war mir einfach zu schade.
Deshalb denke ich auch, dass nicht passende Darks eine wesentliche Ursache sind. Und dass dithern dementsprechend viel hilft.

Nun fotografiere ich im Moment nicht und die alten Bilder finde ich nicht mehr. Deshalb kann ich mein Ergebnis von damals leider nicht belegen.
Aber mein Problem mit den Darks war die Temperatur, die nicht passte. Denn entscheidend ist ja nicht die Umgebungstemperatur, sondern die Chiptemperatur, die sich während der Belichtungen ja ändert. Zu Beginn geht sie relativ stark nach oben, später dann bleibt sie einigermaßen stabil. Ich hatte mir angewöhnt, Erst eine runde dreiviertel Stunde Lights zu machen, dann die Darks (in der Regel 10 Stück) und dann den Rest der Nacht die Belichtung laufen zu lassen. Nach Möglichkeit keine Pausen länger als eine Minute beim Wechsel von Light auf Dark und zurück. Beim stacken habe ich die ersten Lights dann weggeworfen. So bekam ich das Rauschen beim stacken mit DSS (Kappa-Sigma-Clipping) einigermaßen in den Griff.
Da ich ohne guiding fotografiert habe, habe ich nur kurz belichtet. Maximal zwei Minuten, oft auch kürzer.

Aufgehört habe ich, weil mir die EBV zu nervig war. Nach dem stacken noch länger als 10 MInuten an der Bildbearbeitung sitzen zu müssen ist mir zu lang. Ich will fotografieren und nicht am PC sitzen. Schlechte Voraussetzungen für die Astrofotografie, ich weiß. ;)
Deshalb bin ich momentan wieder rein visuell unterwegs. Aber ich habe das Equipment noch im Keller und es juckt mich doch immer wieder mal in den Fingern. Jetzt zum Beispiel...

Bis dann:
Marcus
 

Anhänge

  • Plejaden_2019-09-04_432mm_136x30s_AA_004_2b.jpg
    Plejaden_2019-09-04_432mm_136x30s_AA_004_2b.jpg
    221,3 KB · Aufrufe: 114
Zuletzt bearbeitet:
Deshalb denke ich auch, dass nicht passende Darks eine wesentliche Ursache sind. Und dass dithern dementsprechend viel hilft.

Hi Marcus,

schlechte Darks verschlimmern das Problem, weil dann etwas auftaucht dass ich Lochfrass nenne. Ich finde leider den Beitrag nicht mehr, aber vor zig Jahren hatte ich selber das Problem mit der 350D (die ein ausgeprägtes Verstärkerglühen hatte), und da haben wir das hier im Forum analysiert. Das Problem ist, dass wenn Darks "zu warm" sind, entstehen durch die Subtraktion im fertigen Bild Löcher. Das ist dann eine echte Katastrophe.
Ich wüsste beim besten willen nicht, wie man ausser durch aktive Kühlung, reproduzierbare Darks erstellen sollen könnte. Wie du selber schreibst ist die Temperatur nicht konstant bei den DSLRs sondern verändert sich im Laufe der nacht, absoluter Horror! Der beste "fit" ist immer noch die Temperatur der Umgebung zu messen, zu notieren, und zu versuchen diese Bedingungen beim Darks machen zu simulieren. So kenne ich das von einigen Astrokollegen die mit DSLRs arbeiten.
Die weit verbreitete Praxis ist aber die, die Darks ganz weg zu lassen. Was nicht der Königsweg ist, bei modernen Kameras aber total vertretbar. Voraussetzung ist dass man dithert.

Aufgehört habe ich, weil mir die EBV zu nervig war. Nach dem stacken noch länger als 10 MInuten an der Bildbearbeitung sitzen zu müssen ist mir zu lang. Ich will fotografieren und nicht am PC sitzen. Schlechte Voraussetzungen für die Astrofotografie, ich weiß.

Das Problem kennt wohl jeder, aber Bildbearbeitung ist 50% des Hobbys. Ich habe neulich mal die Software SIRIL ausprobiert und war ganz erstaunt über die dort enthaltenen Skripte. Diese erlauben es den kompletten Bildreduzierungsablauf (also Darks erstellen, abziehen, Flats etc.) in einem Rutsch zu machen. Sprich man drückt einen Knopf und am Ende bekommt man ein (nicht gestretchtes) fertiges Bild. Das kann man mit board eigenen Werkzeugen dann noch etwas bearbeiten und ist im Prinzip fertig. Wenn man das trainiert kommt man evtl. auf unter 30min Bildbearbeitung:)

CS Frank
 
Hallo Peter,

ich habe jetzt mal dein TIF weiter bearbeitet...
Ja das Pattern-Noise ist fast weg...

Was macht dein Stacker anders wie DSS, Astroart oder PI?

Nun, ich habe nur DSS oder Astroart, von daher hilft mir das wohl nix...

Aber:
Da du damit wohl den "Stein der Weisen" gefunden hast, warum lässt du deine Erkenntnisse nicht ins DSS Projekt einfließen?

Gruß Norbert

Hallo Norbert,

ich kann leider nicht in den Source-Code der anderen Programm schauen.

Aber das Medianstacken klappt nur unter ganz bestimmen Bedingungen, die ich auch nur teilweise erfüllen kann mit Deinen Bildern. Das Maedianstacken verlangt absolute Geleichheit des Nullniveaus und der Skalierung. Sonst funktioniert das Medianstacken nicht optimal.

Da Du immer die gleiche Belichtungszeit von 30s genommen hast, ist die Skalierung wohl ok. Das Nullniveau schwankt aber, wie ich in einem anderen Thread im Plot gezeigt habe. Das muß man erst (richtig) angleichen. Und da könnte das Problem liegen bei den anderen Stackern. Normalerweise normieren die die Bilder zwischen Minimum und Maximum. Das halt ich für eine sehr unglückliche Wahl. Ich bestimme den Mittelwert jedes Bildes ziehe es ab und addiere den Mittelwert eines Referenzbildes (Bild #1). Damit sind die Bedingungen für das Medianstacken optimal gewählt.

Allerdings läuft in Deinen alignten Bildern die Vignette als Gradient ducrh die Bilder. Das ist wiederum schlecht für das Medianstacken. Der Gradient, also ein Flat, muß vorher abgezogen werden um das Nullniveau wieder stbil zu bekommen.

Deshalb beiben auch in meinem Mediangestackten Bild noch Reste vom "walking noise" übrig.

Hier der Link zu meinem Medianstack zum Vergleich.

Gruß,
Peter
 
Zuletzt bearbeitet:
Hallo Norbert,

Du mußt aber das "Median Kappa-Sigma Clipping" in DSS benuzten. Der reine Median geht nur für Darks und Flats.
Wie gesagt, in Deinem Fall (wandernde Vignette) gibt es erhöhtes Rauschen durch das Medianstacken, was Du als fehlende Dynamik interpretiert hast.

Gruß,
Peter
 
Eins muss ich noch anmerken:
Dieses Vorgehen ist kein "Patentrezept" gegen Pattern Noise.
Ich habe auch einige Bilder probiert bei denen dann der Effekt bei weitem geringer war.

Darum gilt die Devise, dass man immer am "Ausgangsmaterial" ansetzen muss und da bleibt einem bei der DSLR (wegen der unbeherrschbaren Temperatur) nur der Weg "Dithern".

Gruß Norbert
 
Hallo Norbert,

es hängt immer davon ab, wie groß die Drift auf dem Summenbild ist. Je größer, desto besser klappt das mit dem Medianstacken. Das Problem ist, dass Pixelrauschen im Gegensatz zum Ausleserauschen kein statistisches Rauschen ist. Wäre es das, würde durch ein Pixel Verschiebung das Darkrauschen im Bildrauschen untergehen.

Das tut es nun nachweislich nicht, wie Du siehst.
Dark_Canon600_drift.png

Ich habe Deine Masterdark auf "Wanderschaft" geschickt. Das sieht man an den dünnen, schwarzen Linien, die wohl die wandernden Hotpixel sind. Die viele Warmpixel und Lau-Warmpixel, sieht man hier gar nicht. Die machen auch kein Muster.
Das sagt mir, dass diese Pixel vermutlich erst bei Belichtung der Zellen aktiv werden. Also nicht durch den Dunkelstrom verursacht werden. Also bringt ein Darkarbzug auch nicht viel in Bezug auf die Warmpixel. Damit kannst Du Dich ganz aufs Dithern konzentrieren.

Gibt es an dieser Front denn schon Erfolgsmeldungen? Bei einer so dichten Pixelschar können durch Dithern auch neue Muster entstehen. Das war die Vermutung von Erich. So wie vermutlich bei Ecki, der nach seinen Angaben gedithert hatte.

Gruß,
Peter
 
Gibt es an dieser Front denn schon Erfolgsmeldungen? Bei einer so dichten Pixelschar können durch Dithern auch neue Muster entstehen. Das war die Vermutung von Erich. So wie vermutlich bei Ecki, der nach seinen Angaben gedithert hatte.
Das Bild von Ecki hat aber nicht nach Dithern ausgesehen, scheinbar hat es nicht funktioniert...
Gruß Norbert
 
Screenshot_20191012_211436.png

Ich habe die Drift im Dark nochmal gejittered, was den Bedingungen beim (schlechten) Guiden eher entspricht. Damit werden die Striche dicker, was sich auch in den Bilder wiederspiegelt. Das Bild entspricht nicht dem Muster aus Norberts Bilder.
 
Zuletzt bearbeitet:
Die oben eingestellten Dark-Drifts sind nicht richtig. Programmierfehler. Es war immer das ungedriftete Bild überlagert.
Hier ist das richtige Driftbild:

walking-noise.png


Diese Muster entspricht dem aus Norberts Bildern. Natürlich nicht ganz genau, aber im Prinzip sind es die verschmierten Muster aus dem Bild von Post #44. Wenn das Dark passend zum Light-Dunkelstrom wäre in Norberts Bildern, müssten die Muster eigentlich verschwinden, wenn man das Dark abzieht.

Bei einer Subtraktion müssen die Muster in Dark und Light gleich hell bzw dunkel sein. Das ist aber schwierig zu erreichen. Mit einer Division, wie beim Flat, kann man einfach zu korregieren.

Daraus entnehem ich, dass es absolut notwendig ist, gute Darks zu machen, die in allen Parametern, wie Temperatur, Belichtungszeit usw zusammen passen müssen.
 
Daraus entnehem ich, dass es absolut notwendig ist, gute Darks zu machen, die in allen Parametern, wie Temperatur, Belichtungszeit usw zusammen passen müssen.
Nun, momentan benutze ich eine DSLR wie schon geschrieben und auch dazu ein älteres Model.
Da da keine Temperaturregulung verbaut ist, wird das also schwierig...
Und um das Muster zu "verwischen" kann man dithern.
 
Hallo,
so richtig klar ist mir die Herkunft des "walking pattern noise" auch nach Lektüre einiger Threads und des Videos nicht. Ich habe aber noch eine Idee, was eine Ursache sein könnte und zwar gibt es bei den APS CMos Sensoren unterschiedliche Pixel-Designs, welche beispielsweie die Anzahl der Transistoren pro Pixel beschreiben. Die neueren Sensoren habe durch die kleinen Pixel eine hohe Packungsdichte, dass sie sich beispielweise Transistoren teilen (müssen). Diese heißen dann 2.5T oder 1.75T oder auch 1.5T Designs. Bei 2.5T Designs teilen sich zwei Pixel jeweils einen Transistor (beispielweise bei der Nikon D5100), bei 1.75T sinds 4Pixel und bei 1.5T 6Pixel. Ich denke alle neueren CMOS Sensoren haben solche "shared designs". Hierbei kommt es aber teilweise zu korreliertem Rauschen, es gibt auch einige wissenschaftliche Artikel dazu. Wie das 1.5T Pixeldesign (6 korrelierte Pixel) beispielweise mit der RGGB-Anordnung interferiert weiß ich nicht, ich denke aber, dass das häßlich wird.
My 2cents
Vg Tino
 
Die neueren Sensoren habe durch die kleinen Pixel eine hohe Packungsdichte,

Hallo Tino,

ja, es ist auch in der Tat schwer nachzuvollziehen. Gegen deine Theorie spricht, dass wir das Phänomen seit mehr als einem Jahrzehnt beobachten können. Ich hatte es schon mit der 350D. Ich gehe davon aus dass die von dir beschriebene Technologie, wie du schreibst, erst in moderneren Kameras Verwendung findet.

Langsam bin ich mir allerdings unsicher, ob es die Outlier Rejection ist, die die Verbesserung bringt oder nicht doch der Stacking Algorithmus.
Dieser Artikel ist recht interessant, auch in Bezug auf Dark Frames. Vielleicht muss man da doch nochmal Versuche anstellen.

CS Frank
 
Hallo Frank,

das mit dem Satz war unglücklich formuliert.

Habe den Artikel gelesen, das ist nahezu nicht praktikabel, dass man eine DSLR mit der Temperatur in Kontrolle bekommt.
Was auch weh tut, sind diese kurzen Belichtungszeiten von 30s (ungeguidet geht nicht mehr) und bei längerer EinzelBelichtungszeit muss man sowieso guiden und dann kann man gleich zusätzlich dithern.

Gruß Norbert
 
Noch eine Anmerkung:
Sofern man einen OAG verwendet, wird das Problem Torsion (Differential-Flexing) minimiert oder sogar eliminiert.
Dadurch kann es auch sein, das alle Bilder "deckungsgleich" sind und somit auch kein "Pattern Noise" auftritt.

Bei Verwendung eines separaten Leitrohrs hat man immer Torsion, was dann ebenfalls zu Pattern Noise führt (sofern man eine dafür anfällige Kamera hat).

Gruß Norbert
 
Hallo Norbert,

ich glaube, das hat jeder schon richtig verstanden, wie Du es gemeint hast. Außerdem hast Du Anführungszeichen benutzt. Franks Reaktion darauf halte ich für total überzogen.

Gruß,
Peter
 
Hallo Frank,
naja, die shared Pixel-Designs gitbs schon recht lange, meine alte Niko D5100 von 2011 hat beispielweise so ein 2.5T Design. Hängt halt damit zusammen, dass die Kontaktierung der Pixel Platz wegnimmt und somit die Flächenbelegung und die Quanteneffizienz sinkt. Daher werden auch die Mikrolinsen benötigt. Ganz neue Designs (3D-stacked BSI), welche rückseitenbeleuchtet sind und die Pixel nach hinten auf eine zweite Elektronikebene durchkontaktieren, sind wohl auch aus diesem Grund von Vorteil. Vermutlich die meisten "nur rolling-shutter" Sensoren verwenden die "Shared Designs". Global Shutter und Global Reset benötigen mehr Transistoren.
Vg Tino
 
das mit dem Satz war unglücklich formuliert.

Habe den Artikel gelesen, das ist nahezu nicht praktikabel, dass man eine DSLR mit der Temperatur in Kontrolle bekommt.
Was auch weh tut, sind diese kurzen Belichtungszeiten von 30s (ungeguidet geht nicht mehr) und bei längerer EinzelBelichtungszeit muss man sowieso guiden und dann kann man gleich zusätzlich dithern.

Hallo Norbert,

war auch nicht persönlich gemeint. Es hat mich nur geärgert, da, wie ich schon an anderer Stelle gesagt habe die ganzen Beiträge hier eher zur Verwirrung beigetragen haben. Du ziehst aber ja die richtigen Schlüsse daraus.

CS Frank
 
Moin,

ich möchte nur einen kurzen Rückgriff in die Vergangenheit tätigen, es gab in den Anfangszeiten der DSLR durchaus Ansätze und auch Kollegen, die es praktizier haben, eine Temperierung der DSLR.

Man kann m.E. zwar mit vertretbarem Aufwand keine "Kühlung" realisieren, dazu muss man der DSLR - wie ja auch verschiedentlich praktiziert - richtig an die Wäsche, und die heute erhältlichen Astrokameras relativieren den wirtschaftlichen Nutzen solcher Umbauten, es gab aber mal einen Thread in dem eine einfachere Lösung mit einer Temperierung (Heizung/Kühlung), einen handelüblichen Temperatursteuerbaustein und einem einfachen Isoliergehäuse vorgestellt wurde. Alle Komponenten waren aus dem Elektronikhandel, nix spezielles.

Ob das in einem "unserer heimatsprachlichen Foren oder bei unseren amerikanischen Freunden war, kann ich heute nicht mehr verorten. Damals war es hat ein irrer Aufwand das zu bauen, heute in Zeiten von 3D-CAD usw. wäre das sicher einfacher. Oder ob man sich für die Dark-Erstellung einen gebrauchten Klimakasten zulegt ...

Alles Aufwand, man muss sich sicher fragen, ob es das lohnt oder ob man nicht durch die Nutzung der Statistik, entweder beim stacken oder in der Ausreißerelimination in den Griff bekommt. Es waren ja schon viele Beiträge im Thread, die das thematisiert haben. Fakt ist, dass die Erscheinungen, wie sie beschrieben wurden mit den entsprechenden Maßnahmen angegangen werden können. Die Mechanismen sind denke ich auch gut beleuchtet worden.
Die Frage ist, ob man das insgesamt verallgemeinern kann, oder ob das was ich fast vermute, technologieabhängige Effekte sind, die bei den verschiedenen Sensortechnologien eher unterschiedliche Effekte auslösen, so dass man sich doch immer wieder eher auf die einzelnen Kameras einschießen muss. Vielleicht wird durch die vielen unterschiedlichen Sensortechnologieren auch die Anforderung an die Stackingalgorithmen schärfer, anscheinend kommen bei an sich ähnlichen Prozessen durchaus unterschiedliche Ergebnisse raus.

Auf jeden Fall eine sehr spannende Diskussion, die man mit Interesse verfolgen sollte, wenn man sich für Bildakquise interessiert.

CS
Jörg
 
Ich habe mein Programm etwas abgeändert. Statt der linearen Drift von oben, habe ich Zufallszahlen genommen, um das Dither zu simulieren. Zwar ist eine linare Drift auch schon eine Form des Ditherns, die aber hier nicht zielführend ist, wie man sieht.

Dithern funktioniert bei normalverteiltem Rauschen (Ausleserauschen) sehr gut, da reicht schon ein Pixel Versatz. Wir haben es hier aber mit "Pixelrauschen", oder besser ausgedrück Pixelmustern zu tun, die eben nicht jedesmal beim Auslesen verändert werden. Jedenfalls nicht bei gleicher Belichtungszeit und Temperatur, so the gängige Annahme.

Dither50.png

In dieser Simulation habe ich in einem Dither-Kreis mit 50 Pixel Durchmesser gewürfelt. Das sieht man an den Hotpixel. Ich habe insgesamt 136 "Einzelaufnahmen" gemacht (ohne störenden astronomische Signale wie Stern, Galaxien etc) und die gemittelt. Die Grundstruktur des Darkpatterns ist noch gut erkennbar. Das wird auch bei echten Aufnahmen nicht anders sein.


Dither200.png

Hier habe ich den Ditherdurchmesser auf 200 Pixel erhöht, was zur Folge hat, das die Struktur verschmiert wird, wie Norbert es richtigerweise ausgedrückt hat.

Ich habe mit dem reinen Masterdark von Norbert gearbeitet. Jetzt kann man hoffen, dass die Darkkurrektur auch bei Temperaturunterschied noch einige korregieren kann und die Amplituden schwächer sind. Aber da seit ihr gefragt mit dem Experiment am Himmel.

Gruß,
Peter
 
Noch eine Anmerkung:
Sofern man einen OAG verwendet, wird das Problem Torsion (Differential-Flexing) minimiert oder sogar eliminiert.
Dadurch kann es auch sein, das alle Bilder "deckungsgleich" sind und somit auch kein "Pattern Noise" auftritt.

Bei Verwendung eines separaten Leitrohrs hat man immer Torsion, was dann ebenfalls zu Pattern Noise führt (sofern man eine dafür anfällige Kamera hat).

Gruß Norbert

Hallo Norbert,

da hast Du völlig recht: wenn Du mit einem OAG guidest, sind die Bilder mehr oder weniger deckungsgleich. Dann tritt das "walking noise" natürlich nicht mehr auf. Das kommt ja nur durch das Alignen ins Spiel. Wenn Du Deine Bilder ohne Alignment mittelst, gibt es ja auch kein "walking noise".

Der feste Glaube war aber, das Pixelpattern des Darks durch Dithern zu verstecken. Nun heißt Dithern auf Deutsch zittern, und nicht zaubern. Meine Simulationen zeigen, dass das auch nicht so richtig funktioniert. Jedenfalls verschwindet das "walking noise" beim ordentlichen guiden. Das stört doch in den Bildern ganz gewaltig.

Dither50_zoom.png

Übrig bleibt aber der fleckige Hintergrund durch das Pixelpatterns des Dunkelstroms (hier in Originalauflösung des Chips), der sowohl im Dark (daher der Name), wie auch im Light ist. Unter den richtgen Bedingungen bekommst Du den Dunkelstrom aus dem Light durch Abzug des Darks korregiert. Das ist bei ungekühlten Kameras sehr schwierig bis unmöglich, wie Du weißt.

Ob Du jetzt ditherst, oder nicht: übgrig bleibt immer etwas im Endbild. Wenn Du sehr stark ditherst, also im 500 Pixelbereich, verschmiert sich das Muster und wird dadurch schwächer und verteilter.

Aber immerhin kann man das dann als "galaktischer Cirrus" verkaufen. ;) Das ist natrülich ein Gag.

Gruß,
Peter
 
So,
ein weiser Mann hat mal gesagt, wichtig ist, was hinten raus kommt.
In erster Linie versuche ich schöne Bilder zu machen in gegebener kurzer Zeit mit vorhandener DSLR so wie viele andere auch.

Nun, als Hilfsmittel habe ich marktübliche Software und mangels Programmierkenntnisse kann ich und die meisten anderen hier auch, nicht für jede Aufnahmesitution mir eine Stackingsoftware anpassen.
Dass die Bilder mit Dithering schöner werden, ist wohl hinreichend bewiesen.

Nun, bei einem/mehreren Bekannten mit gekühlter CMOS und guten Darks gabs übrigens auch kein Pattern-Noise trotz "Drift" durch Torsion zw. Leitrohr und Aufnahmeoptik.

Gruß Norbert
 
Du hast doch Zugriff auf ein Sternwarten Teleskop hast Du mal geschrieben. Du kannst doch Deine Kamera da anflanschen und guiden. Dann siehst Du schonmal was möglich ist. Du kannst Dir ja auch eine Bibliothek mit MasterDarks bei unterschiedlichen Temperaturen anlegen.

Ich habe ja auch zwei gekühlte CMOS (ASI1600MM/C Pro). Das "walking noise" ist bei mir noch nie aufgetreten. Deshalb kannte ich den Begriff auch gar nicht. Ich habe aber auch nicht so ein Kastenmuster auf meinen Darks. Ich kann ja mal probieren, das Dark wegzulassen in meinem Stacker. Mal sehen, ob ich dann etwas finde. Allerdings habe ich einen OAG und mein Guiding läuft perfekt.

Vielleicht hat es auch mit der Stabilität des Chips und dessen Stromversorung zu tun. Wer weiß.

Ergänzung: Ich habe mir gerade mal die erste Hälfte (ersten 16 Einzeldarks) und die letzte Hälfte zu MasterDarks verarbeitet. Da sieht man schon in der Differenz der beiden Masterdarks das Kastenmuster. Wenn die Einzeldarks stabil wären, müsste nur Ausleserauschen zu sehen sein. Aber die Temperatur ist ja auch in den Darks nicht konstant.

Gruß,
Peter
 
Zuletzt bearbeitet:
Du hast doch Zugriff auf ein Sternwarten Teleskop hast Du mal geschrieben. Du kannst doch Deine Kamera da anflanschen und guiden. Dann siehst Du schonmal was möglich ist.
Ich kann auch mit meiner EQ6 guiden, zumal ich keinen Vorteil davon habe, sollte ich meine Optiken auf das Sternwartenteleskop (500/4000 RC auf Sideres85-Montierung) Huckepack statt auf meine EQ6 setzen.
Zur EOS am am 500/4000 RC: In erster Linie hat der RC 4m Brennweite und damit steigen die Anforderungen ans Guiding und die Objektauswahl ist eine Andere. Einen Off-Axis Guider haben wir dafür nicht, somit tritt wieder Torsion auf wegen dem separaten Leitrohr und damit auch Pattern-Noise.

Die Kamera der Wahl dafür ist die schon vorhandene SBIG STL 11000M SW-CCD (große Pixel) mit adaptiver Optik und integriertem Guiding Chip.

Zurück zum Thema, das war nämlich das Vermeiden von "Walking Pattern Noise" und das "scheint mit "Dithern" zu funktionieren, auch wenn die anderen Randbedingungen nicht optimal sind...

Gruß Norbert
 
Status
Es sind keine weiteren Antworten möglich.
Oben