Saturn <<Blind-Test>> verschiedener f-Werte

Status
Es sind keine weiteren Antworten möglich.
Hallo Gerry, danke für deinen Beitrag!

Ja, diese Überlegung habe ich auch schon gemacht. Die Betrachtungen im obigen Beitrag schließen keinen Effekte, wie Rauschen, Smear (Was ist eigentlich smear?) mit ein.

Es ist unter anderem auch im Mond/Planeten-Tuorial zu lesen: Zitat >> Die Anpassung einer Kamera lässt sich auch theoretisch über einen Ansatz mit der PSF herleiten. Vernachlässigt man dabei andere Einflüsse auf die Bilderzeugung (Rauschen, Smear, usw.), so erhält man die Formel f = 3x für etwas kleinere Öffnungsverhältnisse. Aus der Praxis heraus halten wir aber die mit unserem Modell berechneten f-Werte (f = 3,6x) immer dann für sinnvoll, wenn die Optik eine sehr gute Qualität hat, und die atmosphärischen Bedingungen stimmen. Durch die bei Flächen erforderliche korrekte Belichtungszeit wird der weniger helle Randbereich des Airy-Disks kaum sichtbar, was den Durchmesser verkleinert, die Überlegung in Richtung „noch bessere Auflösung“ verschiebt, und ein noch höheres Öffnungsverhältnis fordern würde. Auch um Fehler der Elektronik bei der Bildbearbeitung zu kompensieren ist ein gewisses "Oversampling" gelegentlich um so günstiger, je schlechter die Elektronik ist. Viele bekannte Mond/Planetenfotografen arbeiten daher mit noch größeren Werten, professionelle Gerät wie das Hubble-Teleskop müssen sich mit solchen Problemen nicht herumschlagen, und kommen daher auch mit kleinerem Öffnungsverhältnis aus.<< Zitat Ende.




Das Rauschen einer gewissen Größe, wie du es beschreibst, ein Problem sein kann, habe ich auch schon vermutet.



Viele Grüße,
Christian
 
Zitat von Gerry_K:
... die kleinsten von der Optik aufgeösten Details sind immer noch mehrere Pixel groß ...
Hallo Gerry,

diese Bedingung scheint ab ca. f/D = 2,5*p hinreichend erfüllt zu sein, wie diese Jupiteraufnahme zeigt. Der kleine dunkle Fleck neben "Red Spot Junior" weist eine feine Trennungslinie auf, die hier ziemlich genau der bekannten "Delle" in der Abbildung eines engen Doppelsterns am Beugungslimit der Optik nach Raleigh entspricht. Feinere Details kann die in diesem Fall eingesetzte 10" Optik gar nicht auflösen, auch nicht bei beliebiger Verlängerung der Aufnahmebrennweite.

Gruß, Jan
 
Jan, du musst aber schon auf die Argumente von Gerry im Ganzen eingehen.


Siehe dieses Bild mit nur einem Zoll mehr Öffnung: http://qhyccd.com/ccdbbs/index.php?PHPSESSID=ce2f432a4b74de2c8ae7299357f1c977&topic=3612.0
Während dein Jupiter von feinem Rauschen durchsetzt ist, hat dieser hier dieses Problem nicht und zeigt wesentlich besser "gezeichnete" Details. Ganz besonders deutlich wird dies, wenn man ihn auf die Größe deines Jupiter verkleinert.


Gruß,
Christian
 
Hallo Jan und Christian,

genau das ist es, wenn man dieses Bild mit dem C11, welches mit "zu viel" Brennweite aufgenommen wurde, etwas verkleinert bekommt man dann eine schöne feine Zeichnung ohne rauschen - im Prinzip verschwindet ja das rauschen komplett wenn man das oversampelte Bild nach der Bearbeitung verkleinert. Bitte nicht falsch verstehen Jan, ich finde deine Bilder sehr anspruchsvoll, du hast ein sehr feines Händchen für die Nachbearbeitung, gefallen mir wircklich gut, aber man sieht dem Bild eben doch ein klein wenig feinkörniges rauschen an was durch das nachträgliche vergrössern des Bildes eben mitvergrössert wird. Es sind alle Details da die das Teleskop auflösen kann, aber die sind eben nur so groß wie die einzelnen "Rauschkörner".

Durch Oversampling bekommt man nicht mehr Details, aber die Details sind feiner und sauberer gezeichnet. Natürlich in Abstimmung mit dem Seeing und anderen Umständen, wie schon gesagt wird am dunklen tiefstehenden Saturn das Oversampling wenig bringen, da zeigen ja auch eure Versuche das weniger Brennweite dafür kurze Belichtungszeit vorne ist. Aber beim hohen, hellen Jupiter bei gutem Seeing müsste man mit Oversampling ein schöneres Bild bekommen.

Gruß, Gerry
 
Zitat von Gerry_K:
genau das ist es, wenn man dieses Bild mit dem C11, welches mit "zu viel" Brennweite aufgenommen wurde, etwas verkleinert bekommt man dann eine schöne feine Zeichnung ohne rauschen - im Prinzip verschwindet ja das rauschen komplett wenn man das oversampelte Bild nach der Bearbeitung verkleinert.
Hallo Gerry,

da hast Du in der Tat eine wahrhaft weltmeisterliche Jupiteraufnahme gefunden. Deine Schlussfolgerungen erscheinen mir allerdings an dieser Stelle ein wenig fragwürdig. Denn mit dem Hinweis auf meine Jupiteraufnahme hatte ich hier zunächst einmal gar keinen Vergleich mit den Ergebnissen anderer Autoren anstellen, sondern lediglich auf die Wiedergabe der feinen Trennlinie in dem dunklen Spot aufmerksam machen wollen. Die Auflösung dieser Trennlinie betrachte ich als Nachweis für das Erreichen des beugungsbedingten Auflösungsvermögens meiner 10" Optik.

Wenn Du hier lieber über den Zusammenhang zwischen Aufnahmebrennweite und Rauschen sprechen möchtest, dann sollten wir besser diese Jupiteraufnahme zum Vergleich heranziehen, die ich ebenfalls mit dem 10" Spiegel gemacht habe. Diese bei f/11 gewonnene monochrome Aufnahme kommt der bei f/20 gewonnene Vergleichsaufname von "patry" hinsichtlich der Detailzeichnung gewiss näher als meine zuvor genannte Farbaufnahme. Allerdings ist sie durch ein erheblich stärkeres Rauschen gekennzeichnet.

Es wäre aber ein wenig gewagt, das erhöhte Rauschen nun gezielt auf die kürzere Aufnahmebrennweite zurückzuführen. Denn patry hat seine Aufnahme mit 6000 Frames im Stack gewonnen, während ich nur ganze 720 Frames zur Verfügung hatte. Ich denke also, dass man diesen Bildervergleich nicht unbedingt als Beweis für die von Dir befürchteten Nachteile kürzerer Aufnahmebrennweiten betrachten darf.

Gerade die kürzeren Aufnahmebrennweiten begünstigen doch die Verwendung kürzerer Belichtungszeiten und damit eine erheblich höhere Bilderauswahl im Stack.

Gruß, Jan
 
Hallo,

wenn wir 6000 und 720 mal bezüglich der Wurzelfunktion in Relation setzen, ist sqrt(720) ~ 27 und sqrt(6000) ~ 77 nur einen Faktor ~3 voneinander entfernt, also gar nicht mal so weit. Ich denke, man sollte diese Argumente durchaus ernst nehmen. Also sollten wir uns doch auch fragen:

  • Besteht der Vorteil, dass Details über das Grundrauschen "gehoben" werden und so sauberer herausgearbeitet werden können?
  • Ist es ein Vorteil zu oversampeln, um eben Auswirkungen der Fehler in der Elektronik, wie Ausleserauschen, Streifenbildung durch den Sensor zu minimieren?
  • Erleichtert oversampeln die Bildverarbeitung und schafft so mehr Reserven, sodass sauberere Bilder möglich werden?
An dieser Stelle, etwas weiter unten im Tutorial ist die Sache mit dem Rauschen und Detailgröße anschaulich anhand zweier Bilder von Plato dargestellt und beschrieben. Das ist für mich ein eindeutiges Argument für etwas mehr Brennweite. Auch bestätigt der Vergleich der beiden Jupiterbilder von Jan und aus dem QHYCCD-Forum tendenziell einen Vorsprung. Da beißt die Maus nun mal keinen Faden ab. Ich kann hier auch auf meine eigenen Erfahrungen verweisen.



Viele Grüße,
Christian
 
Zitat von Christian_P:
An dieser Stelle, etwas weiter unten im Tutorial ist die Sache mit dem Rauschen und Detailgröße anschaulich anhand zweier Bilder von Plato dargestellt und beschrieben.
Hast Du die Sache denn verstanden?

Zitat von Christian_P:
Das ist für mich ein eindeutiges Argument für etwas mehr Brennweite.
Dann musst Du die Sache wohl verstanden haben!

Gruß, Jan
 
Hallo Jan, ja, ich finde die Sache einleuchtend. Es könnte sich also um ein gewichtiges Argument für hohe Brennweiten handeln.

Wenn ich schreibe >>Das ist für mich ein eindeutiges Argument für etwas mehr Brennweite<<, dann meine ich damit, dass dies ein Argument dafür ist (ein einzelnes). Das bedeutet also nicht, dass es keine anderen Argumente dagegen gibt und das ist auch noch kein absolutes Urteil. Hier muss man doch unvoreingenommen herangehen. Ich könnte dich zum Beispiel fragen, warum du noch keine Tests mit kleineren Öffnungsverhältnissen gemacht hast bzw. diese nicht veröffentlichst. Statt dessen propagierst du ausschließlich niedrige Brennweiten und zwar möglichst niedrige. Sorry, das kann doch auch nicht zielführend sein. (?)



Ich zitiere mal Gerry, der das sehr schön beobachtet hat:
Durch Oversampling bekommt man nicht mehr Details, aber die Details sind feiner und sauberer gezeichnet. Natürlich in Abstimmung mit dem Seeing und anderen Umständen, wie schon gesagt wird am dunklen tiefstehenden Saturn das Oversampling wenig bringen, da zeigen ja auch eure Versuche das weniger Brennweite dafür kurze Belichtungszeit vorne ist. Aber beim hohen, hellen Jupiter bei gutem Seeing müsste man mit Oversampling ein schöneres Bild bekommen.
Das "Rauschargument" und viele andere Beispiele in Form von Bildern bestätigen doch gerade diese Beobachtung.


Für meinen Geschmack ist man ab >= 3*p bei sehr guten Umständen , dass heißt helles Objekt, gutes Seeing und sehr gute Optik bestens beraten (das ist ungefähr die von dir empfohlene Obergrenze). Ab dann ist es Geschmackssache, ob man im Falle z.B. des Jupiters das sogar noch verdoppelt, also ~6*p + nimmt, wenn alles passt. Bei Saturn reichen in unseren Breiten wohl 3*p voll aus, auch, weil er so dunkel ist. Am Mond kann man durchaus auch mit 2.2*p nette Resultate erzielen immer abhängig von den Bedingungen. Bei besten Bedingungen würde ich am Mond aber auch mit mindestens 3*p experimentieren. Für Einzellobjekte lohnt sich vielleicht sogar auch etwas mehr, um sie sauberst zu "zeichnen". Unter besten Bedingungen würde ich aber nicht zum Bereich deutlich kleiner 3*p raten wollen, vor allem nicht, wenn die Optik sehr gut ist.



Viele Grüße,
Christian
 
Zitat von Christian_P:
Ich könnte dich zum Beispiel fragen, warum du noch keine Tests mit kleineren Öffnungsverhältnissen gemacht hast bzw. diese nicht veröffentlichst.
Hallo Chris,

Diskussionen werden gelegentlich etwas anstrengend, wenn da zunehmend mit Vermutungen statt mit Fakten argumentiert wird. Auf meiner Website und hier im Forum findest Du von mir über einen Zeitraum von knapp zwei Jahren ausschließlich Bilder, die ich mit der DMK21 bei f/20, also bei f/D = 3,6*p aufgenommen hatte. Erst auf dieser Grundlage bin ich zu kürzeren Brennweiten übergegangen, um im Hinblick auf das Seeing mit kürzeren Belichtungszeiten arbeiten zu können.

Zitat von Christian_P:
Statt dessen propagierst du ausschließlich niedrige Brennweiten und zwar möglichst niedrige.
Das war für mich das Ergebnis einer logischen Entwicklung, und ich sehe z.Z. keinen Grund, mich von hier aus wieder rückwärts zu entwickeln. Wenn Du hier ausschließlich meine "Propaganda" für kürzere Brennweiten wahrgenommen hast, dann liegt das vermutlich daran, dass erst diese kürzeren Brennweiten hier im Forum zu kontoversen Diskussionen geführt haben.

Gruß, Jan
 
Hallo Jan,

naja, du musst zugeben, dass du nahezu jede Gelegenheit nutzt, auf die Möglichkeit hinzuweisen, auch mit kleineren f-Werten zum Erfolg zu kommen. Das ist auch alles gut so. Nur muss erstens jeder für sich dahinter kommen, was für ihn am besten funktioniert und zweitens gibt es halt nicht den Königsweg, um zum Erfolg zu kommen. Diese Vielfalt würde ich gern bewahrt sehen und demzufolge auch die Willigkeit über gegenläufige Argumente zu diskutieren und gegebenenfalls auch einen "Rückschritt" zu riskieren. Prommt taucht jemand auf, der ein Argument hervorbringt, das ebenfalls durchaus Sinn machen kann, wird das von deiner Seite scheinbar nicht wahrgenommen oder es werden andere Argumente entgegengesetzt, nur um die eigene Argumentationsgrundlage nicht zu verlieren. (Da schließe ich mich übrigens nicht aus) Offensichtlich gibt es eben nicht nur die eine Wahrheit.


Gruß,
Christian
 
Hallo zusammen,

das ewige Thema "optimale Pixelgrößen in Abhängigkeit der f-Werte" ...

Ein paar Punkte, die bei der Ankopplung der Cam an das optische System gerne übersehen werden:

1. Chipgeometrie
In der Diagonalen beträgt die Samplingauflösung nur rund 70% im Verhältnis zu Chipkante
2. Wellenlänge
Im Blauen sind wegen der höheren Auflösung kleinere Pixel nötig (Bspl.: Wellenlängenfaktor 400 zu 546nm ca. 0.73x)
3. Aliasing-Effekte des Chips
In der Gegend der Nyquist-Grenze (Grenzlinienpaarzahl) des Chips ist die übertragene Information durch Aliasing-Effekte fehlerbehaftet (ca. ab 0.7x der Grenzlinienpaarauflösung des Sensors). D.h. hier sollte die MTF des optischen Systems schon möglichst nahe Null sein.

Bspl.: Ein f/10-System hat laut MTF bei 546nm eine Grenzauflösung von 183 lp/mm. Für eine artefaktfreie Erfassung bei dieser Grenzauflösung müsste die Nyquist-Grenze des Chips bei ca. 260 lp/mm (1.43x183 lp/mm) entsprechend 1.92um Pixel liegen. Das würde 1/7 der airy-disc entsprechen ...

Wer der Meinung ist, daß das jetzt ein viel zu heftiges oversampling bedeutet, der möge sich einmal das sehr erfolgreiche DOT-Projekt (Dutch Open Telescope) für hochauflösende Sonnenaufnahmen anschauen...

Das DOT-Projekt ist für die Diskussion bzgl. optimale Pixelgröße/f-Werte aus zwei Gründen interessant:
- es ist speziell für hochauflösende Aufnahmen konstruiert und
- es eliminiert durch die speckle-Rekonstruktion die seeing-Effekte (also quasi perfektes seeing).

Wie sieht nun so ein System für "quasi perfektes seeing" aus?

DOT-Daten:
Optik: Parabol 450mm f/4.44 mit 10x "Barlow" => f44.4!!!
Cam: Hitachi KP-F100 Pixelsize 6.7um
Abbildungsmaßstab: 0.07" pro Pixel
avisierte Auflösung: 0.2" @ 430nm

=> Teleskop-Grenzauflösung bei 430nm: 52.4 lp/mm
=> Nyquist-Grenze des Chips: 74.6 lp/mm (also wie oben ca. 1.43x52.4 lp/mm)
=> airy-dics: ca. 47um @ 430nm
Und siehe da: auch hier erfolgt das sampling mit ca. 1/7 der airy-disc-size ...

Das geplante Nachfolgeprojekt ist übrigens ebenfalls ein f/45-System ...

Nimmt man das DOT-Aufnahmesystem als Vorlage für ein optimales Hochauflösungsystem bei perfektem Seeing ergibt sich damit umgerechnet auf geläufige Pixelgrößen folgende Aufstellung:

Pixelsize f/
6.7 um 44.4
5.6 um 37
4.65 um 31
3.75 um 25

Und damit wären wir wieder bei den langen Brennweiten ...

Ciao Werner
 
Moin Werner.
Die entscheidende Aussage hast Du zum Schluss getroffen: "...für ein optimales Hochausflösungssystem bei perfektem Seeing...".
Dafür mögen die von Dir berechneten und angegebenen f-Verhältnisse vielleicht in der Tat funktional sein.
Nun sitze ich mit meiner Sternwarte nicht in einer gut klimatisierten Käseglocke, sondern unter einer zumeist fürchterlich fließenden und wabernden Luftmasse. Womit die Bedingung "perfektes Seeing" schon mal unerfüllbar wird. Wenn das auf unserer Skala 10/10 ist, dann habe ich ein solches noch nie erlebt (in über 40 Jahren!). Die Wahrscheinlichkeit, es zu erleben, ist äußerst gering.
Sollte es mal kommen, gehe ich an die Limits des Möglichen (hätte ich im Übrigen auch ohne diese ganze Diskussion getan :p)
Bis dahin aber muss ich mich mit dem Machbaren arrangieren. Und da wollen wir doch gleich der blanken Theorie mal wieder eine fette Prise Praxis beigeben: Gestern nachmittag war am Jupiter die Luft vor Sonnenuntergang unerwartet ruhig. Mit meinem gewohnten f:24 waren schon im Livebild zahlreiche Details zu sehen. Deshalb habe ich gleich nach der ersten Sequenz auf f:30 erhöht. Das sah am Monitor noch ganz gut aus, nach der Bearbeitung aber wahr schnell klar, dass sich die f:30er mit den kürzerbrennweitigen Aufnahmen nicht messen konnten. Ausgerechnet Rot (!) war deutlich schlechter als sein f:24 Pendant. Und die f:30-Aufnahme wäre auch durch Verkleinerung nicht besser geworden – eher die f:24er durch 1,5xDrizzeln noch viel ansehnlicher!
Der Versuch bestätigt mir, was ich eigentlich schon lange weiß: Für mein Teleskop, die normal vorherrschenden Luftverhältnisse, die DMK etc. gibt es (wie für jede andere Kombi für sich auch) eine optimale Einstellung, und die liegt für mich eben bei um die f:24. Bei schlechter Luft könnte es vielleicht mal etwas weniger sein, bei extrem guter (Vorkommen so gut wie nie) vielleicht auch mehr. Praktischer Nutzwert aber eben aufgrund der Seltenheit = Null.
Theorie ist gut und nett, aber das Bild entsteht in der Praxis und unter deren Bedingungen.
LG
Rudolf
 
Hallo!

Werner, danke für die interessanten Ausführungen! Das DOT-Projekt ist sehr interessant. Ich finde es erstaunlich, wie konsequent es auf hohe Detailauflösung ausgerichtet ist um dann eben auch diese Detailauflösung zu erreichen. Ich habe mal ganz kurz in ein paar PDFs zum Projekt hinein geschaut. Es gibt dazu viel Material online. Besonders interessant ist, dass bei Beobachtungen und Auslegung dieses Teleskops nicht von optimalem Seeing ausgegangen wird, was selbst in der Gegend da nicht so häufig ist, sondern, dass durch speckle-Rekonstruktion - also digitale Nachbearbeitung - die Bildinformationen erst "heraus geholt" werden. Ich Prinzip ist die Planeten/Mondvideografie auch auf eine Nachbearbeitung angewiesen. Somit finden wir hier eine ähnliche Vorgehensweise. Die Ausrichtung auf hohe Detailauflösung ist der in der Planetenbeobachtung weit verbreiteten Methode sehr ähnlich. Man kann das Projekt folglich also eher als eine Bestätigung des Nutzens hoher Brennweiten ansehen als andersherum. Nicht, dass es der Weisheit letzter Schluss ist, aber - und das müssen wir sehen - haben wir hier ein praktisches Beispiel einer erfolgversprechenden Vorgehensweise vor uns.


Das praktisch möchte ich hier betonen, denn es wird oft so getan, als liege Praxis und Theorie immer dermaßen weit auseinander, sodass es ja gar keinen Sinn macht, theoretisch über Sachverhalte nachzudenken. Dem ist nicht so, denn die Auslegung zum Beispiel dieses DOT-Projektes bestätigt sich in der Praxis derart, dass die theoretisch zuvor gemachten Voraussagen erreicht werden. Auch sind bei solchen Projekten mit ziemlicher Sicherheit auch Erfahrungen aus der Praxis eingeflossen. Eine Trennung von Praxis und Theorie gibt es demnach nicht. Nichtsdestotrotz müssen sich theoretische Überlegungen natürlich in der Praxis als tauglich erweisen. Das tun sie aber im Falle des DOT-Projektes sowie im Falle der Planeten/Mondvideografie.


Es werden ebenfalls niedrige Belichtungszeiten verwendet: Siehe hier unter: 1.4 Speckle restoration In the speckle observing mode, for every reconstructed image about 100-200 images (depending on seeing) are taken within a time scale that the solar scene doesn’t hange (15-30 s) with exposure times not more than 10 ms to ‘freeze’ the seeing. Das ist also in jedem Fall anzustreben. Dann muss man halt sehen, in wie weit man die Brennweite dann am Planeten hochtreiben kann oder ob man gelegentlich auch auf 15 bis 20ms erhöhen möchte. Am Mond sollten < 10ms eigentlich immer einzuhalten sein.




Gruß,
Christian
 
Hallo Werner,

dieses Zitat entnehme ich aus einer parallel laufenden Diskussion:
Zitat von Jan_Fremerey:
Zitat von Canonist:
Mehr Licht = kürzere Belichtungszeit, mehr fps ...
Darum sollte man die Brennweite nicht länger als nötig wählen, siehe hier. Dass man auch mit überlangen Brennweiten hervorragende Bilder gewinnen kann, will ja niemand bestreiten.
Hier nun Dein Empfehlung:
Zitat von blueplanet:
Pixelsize f/
6.7 um 44.4
5.6 um 37
4.65 um 31
3.75 um 25
In der vergangenen Nacht habe ich bei reduzierter Transparenz und unterdurchschnittlichem Seeing am Saturn mit 3,75 µm und f/11 eine Belichtungszeit von 30 ms gebraucht. Bei f/25 hätte ich 5x länger, d.h. ca. 150 ms lang belichten müssen und bei dem gegebenen Seeing wahrscheinlich ein völlig unbrauchbares Ergebnis erhalten.

Ich weiß nicht, ob Dein Vergleich mit dem Profi-Setup an dieser Stelle ganz glücklich ist. Im Amateurbereich haben wir nämlich i.a. nicht die Möglichkeit, mittels Speckle-Rekonstruktion (das machen wir ja mit dem Multi-Area-Stacking im Grunde genommen auch) die Seeing-Effekte so weitgehend zu "eliminieren" wie im Rahmen des DOT-Projekts, da insbesondere unsere Kameras vermutlich bei weitem nicht die Lichtempfindlichkeit der dort eingesetzten Geräte aufweisen. *)

Gruß, Jan

*)
Zitat von blueplanet:
Wer der Meinung ist, daß das jetzt ein viel zu heftiges oversampling bedeutet, der möge sich einmal das sehr erfolgreiche DOT-Projekt (Dutch Open Telescope) für hochauflösende Sonnenaufnahmen anschauen...
Für Sonnenaufnahmen braucht man nicht einmal besonders empfindliche Kameras. Insofern erscheint mir jetzt der ganze Vergleich mit dem DOT-Projekt ein wenig irreführend.
 
Zuletzt von einem Moderator bearbeitet:
Zitat von Christian_P:
Das praktisch möchte ich hier betonen, denn es wird oft so getan, als liege Praxis und Theorie immer dermaßen weit auseinander, sodass es ja gar keinen Sinn macht, theoretisch über Sachverhalte nachzudenken. Dem ist nicht so, denn die Auslegung zum Beispiel dieses DOT-Projektes bestätigt sich in der Praxis derart, dass die theoretisch zuvor gemachten Voraussagen erreicht werden. Auch sind bei solchen Projekten mit ziemlicher Sicherheit auch Erfahrungen aus der Praxis eingeflossen. Eine Trennung von Praxis und Theorie gibt es demnach nicht. Nichtsdestotrotz müssen sich theoretische Überlegungen natürlich in der Praxis als tauglich erweisen. Das tun sie aber im Falle des DOT-Projektes sowie im Falle der Planeten/Mondvideografie.

Christian, ich möchte hier weder falsch verstanden werden, noch mir etwas in den Mund legen lassen.
Ich habe überhaupt nichts gegen Theorie. Die muss sein, und es schadet keinesfalls, sie zu kennen und ggf. in die Praxis umzusetzen.
Ich darf aber deshalb gerade daran erinnern, dass diese Diskussion aus der praktischen Anwendung heraus begonnen hat (s. Betreff)!!! Die theoretische Ebene, die sie inzwischen erreicht hat, hebt von dieser Praxis aber weit ab.
Es ist ja toll, wenn an Großteleskopen auf dem Berg mit exaltierter Technik der Theorie etwas näher zu kommen ist. Das nützt mir hier unten im Tal mit einem Amateurteleskop herzlich wenig.
Am Anfang stand die Frage, warum manche Amateur-Planetografen lange Brennweiten verwenden, und ob das wirklich sinnvoll ist. Das DOT-Projekt sehe ich da noch nicht als besonders hilfreich an, die langen Brennweiten zu rechtfertigen, weil wir Amateure nicht mit solchen Techniken arbeiten. Mindestens bis jetzt nicht.

Und solange halte ich es wie Jan: Wenn die Praxis zeigt, dass es nichts bringt, dann lass ich es, bis vielleicht was Besseres kommt. Vielleicht entwickelst Du ja ein Verfahren mit, das uns geplagten Planetenbeobachtern weiterhilft. Bis dahin aber trägt der Hinweis darauf ansonsten zur Ausgangsfrage nicht bei.
Gruß
Rudolf
 
Hallo Rudolf, stimmt, der Vergleich am Saturn zeigte, dass weniger Brennweite - in dem Fall ca. 3250mm - ausreichte, um unter den mäßigen Bedingungen alle Informationen "auf die Platte zu bannen". Naja, ich finde gar nicht, dass wir uns von der Praxis so weit entfernt haben, denn es verwenden ja viele Leute in der Praxis hohe Brennweiten. Es interessiert mich also die Frage, warum das so gemacht wird. Es kann ja eben nicht so sein, dass dies ohne Grund getan wird. Mit deinen f/24 verwendest du nach Jan's Erfahrungen eben auch zu viel Brennweite. Währst du denn bereit mal mit z.B, 2.5*p, also f/14 zu testen? Warum nimmst du zum Beispiel 4.3*p? Weil es bei dir doch den besten Erfolg bringt? Warum ist das so? Wäre es auch bei f/14 so? Für mich ist das Projekt also nur ein Hinweis, dass es tendenziell in diese Richtung gehen kann. An die praktischen Bedingungen muss man dann anpassen.

Mein Praxiseinwand war nicht bös gemeint. :)


Jan, ich habe bei meiner Saturnaufnahme mit f/31 60ms belichten müssen. Das reduzierte sich dann auf ca. 25ms glaube ich bei f/16. Es hängt bei mir immer ein bisschen von den Einstellungen der Kamera ab. Eine strickte Umrechnung also Hochrechnung ist bei mir nicht möglich. Nicht immer sind die Verhältnisse so linear.



Pixelsize f/
6.7 um 44.4
5.6 um 37
4.65 um 31
3.75 um 25
Zumal diese Werte ja in der Praxis oft annähernd so verwendet werden (vielleicht 80% davon).

Warum ist das so? ?)





Viele Grüße,
Christian
 
Hallo zusammen,

eigentlich war mein posting nur ein Hinweis darauf, daß bei gutem seeing eben auch entsprechende Öffnungsverhältnisse notwendig sind, um die mögliche Auflösung des Equipments auch
auszunutzen (die von mir ebenfalls angesprochenen Effekte der regelmäßigen Chipmatrix mal außen vor ...).

Die aus dem DOT-Projekt umgerechneten Werte stellen quasi die sinnvolle Obergrenze bei perfektem seing dar.

Bei weniger gutem seeing (leider der Normalfall) liegt man natürlich darunter. Wie weit muß dann jeder für seine lokalen Gegebenheiten selbst herausfinden.


Zu den Sonnenaufnahmen:
Die verwendeten CCDs (Sony ICX085) sind übrigens sehr wohl mit den bei den Planetenaufnahmen verwendeten vergleichbar (z.B. ICX098, die ICX618 sind empfindlicher).
Außerdem hat man bei dieser Art Sonnenaufnahmen paradoxerweise genauso wie wir bei den Planetenaufnahmen zu wenig Photonen. Der Grund ist die sehr engbandige Filterung
(Lyotfilter, H-alpha: 0.025nm, BaII: 0.008nm).

Ciao Werner
 
Guten Abend.
Bin gerade ein wenig schockiert; und will auch kurz erzählen warum (keine Sorge, alles zum Thema):
Vorgestern hatte ich wieder mal kurz Gelegenheit, Jupiter aufzunehmen. Noch am Tage und deshalb wohl unerwarteterweise mit ziemlich ruhiger Luft.
Genutzt habe ich zunächst die mir vertraute Konfiguration. Dann habe ich testweise eine weitere Sequenz mit mehr Brennweite gemacht, indem ich eine Verlängerung hinter der Barlow zwischengeschaltet habe (ca. 12 cm lang). Die Öffnungsverhältnisse waren mir zu der Zeit nicht exakt bekannt. Angenommen habe ich, dass meine Standardkonfiguration etwa f:24 entspricht, bei der langen habe ich mit um die f:30 gerechnet.

Heute habe ich mich mal hingesetzt, die Formel rausgesucht, wie man die effektive Brennweite ableitet, und erstmals nachgerechnet.
Überraschung 1: Meine Standardbrennweite (am C14) war bisher nicht ein f:24, sondern ein f:28! Genau 9,94 Meter.
Schock 2: Die Brennweite der noch längeren Aufnahme betrug sogar sagenhafte 16,38m oder f:46!!

Soweit, so unerwartet.
Und die Bilder?
Mit f:28 wie immer gut. Mit f:46 --- sogar noch einen Tick besser...
Ich bin schockiert!
Vor allem, weil der erste Blick auf die längerbrennweitigen Ergebnisse das nie nahegelegt hätte. Die Autostakkert Qualitätskurve lag niedriger. "Rausgerissen" hat es genaugenommen auch nur die IR-Pass-Aufnahme. Die ist besser als mit f:28, weil sie nachweislich einen sichtbaren Tick mehr Auflösung hergibt. Das größere RGB war derweil schlechter als sein kürzerbrennweitiges Pendant.

Das alles wirft meine bisherigen Annahmen erstmal über den Haufen.

Ich kann das im Moment hier nur schnell schreiben, nachdem ich zuvor stundenlang Versuche angestellt habe: Originale, 1,5-Drizzle etc... Nichts kommt an die "längstbrennweitige" Aufnahme heran. Ich würde es nicht glauben, wenn ich es nicht fett auf dem Monitor vor mir sähe.
Daran will ich Euch so bald wie möglich gerne teilhaben lassen, aber diese Ergebnisse vergleichend und für alle nachvollziehbar aufzuarbeiten wird mir wohl erst frühestens am Wochenende gelingen. Ich würde das dann gern auch etwas ausführlicher zeigen.

Beim Rechnen ist mir auch klar geworden, warum man so gut wie nie mehr als f:30 bei Jupiteraufnahmen findet. Zur Opositionszeit sprengt der Planet dabei sonst die Grenzen eines 640x480-Pixel-Chips mit 5,6er Pixelraster! Bei Mars geht natürlich mehr, und ist wohl auch in der Praxis tatsächlich angewandt worden.

Eine Bitte noch an die Rechenkünstler: Da mir das alles immer noch spanisch vorkommt, rechnet doch bitte selbst mal nach: Jupiter hatte 327 bzw. 507 Pixel Äquatordurchmesser bei 35,7 Bogensekunden am 1.4., ich habe eine DMK21AU618 verwendet. Stimmen meine Brennweiten und f's?

Erschütterten Grußes
Rudolf
 
Hallo Rudolf,

ist das ein verspäteter Aprilscherz??? :)



Ich bin ebenfalls sehr überrascht und gespannt auf den Vergleich!




Ich setze hier die Formel von Frank Brandl als richtig voraus:


F[m] = 0,206 * p * P / D


F: Brennweite in Meter
p: Pixelraster in Mikrometer
P: Durchmesser in Pixel
D: Durchmesser in Bogensekunden


p = 5,6
P = 327 und 507
D = 35,7




F = 0,206 * 5,6 * 327 / 35,7 ~ 10,6 m ==> ~ f/30

da alles linear ist, reicht es die Pixel ins Verhältnis zu setzten.

10,6 m * 507 / 327 ~ 16,4 m ==> ~ f/46




ein Bisschen andere Werte ?) passt aber!




Viele Grüße,
Christian
 
Hallo Christian.
Die Aufnahme ist zwar am 1.4. entstanden (und bei der Japan ALPO inzwischen auch zu sehen, mindestens in der kürzerbrennweitigen Ausarbeitung), ansonsten mach ich aber Tage danach keine Scherze (mindestens nicht solche ;)!

Ich hatte die Öffnungsverhältnisse nach einer Formel berechnet, die Planetengröße in Pixel * Pixelgröße in mm * 360 * 3600 / (Bogensek. Planet *2*Pi) vorgab.

Ich sitze gerade daran, zwei Ausschnitte aus den IR-Aufnahmen vorzubereiten, um den Unterschied zwischen f28/30 und f:46/48 zu zeigen. Vielleicht nachher mehr.
LG
Rudolf


 
So, schnell was zusammengeschustert, um erstmal zeigen, worum es geht:


Link zur Grafik: http://www.diefotomaus.de/temp/f-vergleich.jpg


Rechtsklick und extra anzeigen = Originalgröße.

Links sind unter dem f:30-Bild zwei Ausschnitte (und nochmals kontrastverstärkt zur besseren Verdeutlichung), rechts die jeweiligen Pendants aus em f:46-Bild, oben die beiden in Originalgröße nebeneinander.
Beim genauen Vergleich fällt rasch auf, dass die kürzerbrennweitige Version in vielen Fällen nicht die Auflösung der längerbrennweitigen erreicht. Das f:46-Bild zeigt einfach viele kleinere Details besser oder überhaupt erst. Die kleinste Trennung im rechten Bild lag bei drei Pixeln. Das entspricht 0,21"!

So, und jetzt kommt Ihr erstmal.
 
Ach, nur zur Ergänzung, falls das jemand anregen möchte: Natürlich habe ich auch von der f:30-Version in Autostakkert eune 1,5x Drizzle gemacht. Die lässt sich zwar besser anschauen, weil sie weniger pixelig wirkt, zeigt aber nur das selbe Detail wie die kleine Normalversion!
 
Zuletzt von einem Moderator bearbeitet:
Zitat von Canonist:
Hallo Rudolf,

vielen Dank für diese detaillierte und anschauliche Dokumentation! Kannst Du bestätigen, dass Du das f/30 Summenbild zuerst vergrößert (mittels dSinc?) und danach exakt dieselben Schärfungsradien angewendet hast wie bei dem f/46 Summenbild?

Noch etwas zur Brennweitenberechnung: Der Bilddurchmesser verhält sich zur Aufnahmebrennweite ganz einfach wie der Jupiterdurchmesser zu seinem Abstand von der Erde, und beides entspricht dem angegebenen Winkeldurchmesser, hier also 35,7 Bogensekunden. Diesen Zusammenhang vergisst man vielleicht weniger schnell als eine Formel.

Gruß, Jan
 
Hallo Jan.
Die Summenbilder sind gar nicht vergrößert worden.
Ich habe in Autostakkert normal ein Sumnmenbild erstellen lassen (links f:30), später eins mit 1,5x Drizzle, das hier aber nicht zu sehen ist. Auch das f:46-Bild ist nur "gestakkert" (beide mit 45 Prozent aus ca. 2300 Bildern).

Verglichen werden hier also zwei Bilder, wie sie aus dem normalen Stacking herauskamen.

Nein, ich habe nicht die exakt selben Schärfungsradien angewandt. Das funktioniert nicht.
Ebensowenig, wie ich eine deutlich kleinere f:11-Aufnahme (die ich am 1.4. auch gemacht habe!) nicht mit den Filtern für f:30 traktieren kann, lässt sich auch die f:46-Aufnahme nicht mit den f:30-Filtergrößen bearbeiten. Das Ergebnis wäre in dem Fall eine zu starke Anhebung des Rauschens.

Beide Bilder sind (in Registax mit Gauss-Filterung) unter dem Aspekt gefiltert worden, die feinstmögliche Detailauflösung zu erreichen. Beide Bilder haben im Nachhinein eine 0,4-Pixel-Gaussglättung erhalten, um die scharfen Pixelübergänge zu glätten. Das hatte auf die Details indes keinen Einfluss, sondern erleichtert allein die angenehme Betrachtung.

War schlecht in Mathe;) Die "leichtere Formel" habe ich nicht verstanden... Kannst Du dass bitte in eine griffige Formel prägen wie Christians? Ist die nicht auch in etwa so? Und was heißt das jetzt für meine tatsächlichen Brennweiten?

LG
Rudolf
 
@ Christian
Ich weiß jetzt, warum die kürzere Brennweite bei mir anders berechnet war: Ich hatte zuerst den Poldurchmesser gemessen (307 Pixel) und damit gerechnet. Da kamen 9,94 Meter raus. Dann ist mir eingefallen, dass es sich um die Äquatorbreite handelt, und die ist wegen der Abplattung eben um 20 Pixel mehr!
Es gibt für fast alles eine Erklärung.
LG
 
Hallo Rudolf, erstmal meine Glückwünsche zu diesen tollen Spätjupiteraufnahmen! Jupiteraufnahmen am Tageshimmel oder in der Dämmerung scheinen sich wirklich zu lohnen.



Bei beiden Öffnungsverhältnissen sind sehr schöne, viele Details zu sehen. Was mich erstaunt ist auch, dass trotz 700nm Wellenlänge doch auch so feine Details zu sehen sind.


Sind Rot-, Grün- und Blau-Kanal auch entsprechend gewesen?


Dieser schwarze "Ausläufer" aus dem NEB heraus ist wirklich etwas "genauer" gezeichnet.


Musstest du bei f/46 ca. zweimal länger belichten? Wie sind denn die Belichtungszeiten gelegen?






Ein interessanter Test! Danke für die Präsentation. :)






Viele Grüße,
Christian
 
Danke!

Mich wunderte neulich die Aussage, dass IR-Pass auflösungsmindernd sei. Bei mir entstehen da seit eh und je die absolut schärfsten Bilder - nicht nur bei Jupiter!

Nein, die drei anderen Farbkanäle sind sehr unterschiedlich.
Hier gewinnt eher das f:30-Bild den Vergleich (aber das wollte ich später nochmal nebeneinanderstellen).
Das f:46 RGB ist jedenfalls "wuschiger" als das f:30er, dafür - wie ich ja eingangs schon schrieb, hat das IR-Pass letztendlich alles rausgerissen. Ich habe das Langbrennweitenbild als IR-RGB eben extra eingestellt.

Es sind an vielen Stellen im langen Bild Details mehr da oder besser aufgelöst. Der Unterschied ist nicht zu übersehen.

Jain! Die Belichtungszeiten waren gleich, das ging zu Lasten des gain: bei f:30 komme ich mit ca. 930 hin, bei f:46 war Anschlag: 1023. Das steigert natürlich das Rauschen. Tendenziell würde ich daher beim Großbild lieber mehr Bilder stacken, das gab die Qualität des Videos aber nicht unbedingt her. 45 Prozent bei beiden bedeutet, ein paar Prozent bessere beim kürzeren Bild, während bei der f:46 die Qualitätskurve mit 45 Prozent Verwendungsrate schon unter der 50-Prozent-Qualitätslinie lag. Und trotzdem...!
LG
 
Zitat von Canonist:
Nein, ich habe nicht die exakt selben Schärfungsradien angewandt. Das funktioniert nicht.
Hallo Rudolf,

wenn Du das f/30-Summenbild zuerst in Fitswork mit dem interpolierenden dSinc-Algorithmus 1,5x vergrößerst, kannst Du anschließend dieselben Schärfungstools anwenden wie an dem f/46 Bild. Nur dann macht es Sinn, die Bildergebnisse im Detail miteinander zu vergleichen.

Die Formel geht so: Bildgröße B geteilt durch Aufnahmebrennweite f gleich 35,7 Bogensekunden, in Formelform also B/f = 35,7".

Gruß, Jan
 
Status
Es sind keine weiteren Antworten möglich.
Oben