Auflösungsvermögen und Sampling

Status
Es sind keine weiteren Antworten möglich.
Hallo Hardy,

Wenn ich diese Formel für gängige Pixelgrößen verwende, bspw. 4,8µm, dann komme ich auf ein Öffnungsverhältnis von f/17,2. Da ist doch jede astronomische Fotooptik meilenweit entfernt. Üblich ist doch eher f/7 bis f/4.
Wo liegt da mein Verständnisfehler?

du beziehst dich hier auf die Deep Sky Fotografie.
Hier geht es darum sehr lichtschwache Objekte abzubilden.
Man arbeitet mit Langzeitbelichtungen die in der Summe mehrere Stunden betragen können.
Um die Belichtungszeiten nicht ausufern zu lassen bzw. um bei einer gegebenen Zeit entsprechend Lichtschwache Objekte abbilden zu können ist es von Vorteil ein „schnelles“ Öffnungsverhältnis zu haben das bedeutet eine möglichst kleine Öffnungszahl.
Hier geht es nicht darum die Auflösung der verwendeten Optik voll auszunutzen sondern darum möglichst Lichtschwache Objekte zu erfassen.
Das Seeing setzt bei Langzeitbelichtungen ohnehin deutlich Grenzen was die erreichbare Auflösung betrifft.

Ganz anders bei der Planetenfotografie.
Diese Objekte haben eine recht hohe Flächenhelligkeiten und hier wird nur Bruchteile einer Sekunde belichtet bzw. Videos mit hohen Bildraten aufgenommen.
Hier geht es dann um Auflösung und darum die der vorhanden Optik möglichst gut auszunutzen.
Das erfordert dann Öffnungszahlen die so etwa N=3,6* Pixel betragen sollten, das ist der Punkt bis zu dem eine deutlicher Auflösungsgewinn erreicht wird.
Darüber hinaus gehende Steigerungen des Verhältnisses von N/Pixel bringen nur noch sehr geringe Stegerrungen

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
Hallo Werner,

Diese sind mit einem Orion Newton 12"/f5,3 in Verbindung mit einer 5x Televue Powermate und einer ASI120MM-Cam (3,75um-Pixel) entstanden.

Diese Pics sind bei einem Öffnungsverhältnis von ca. f/22 entstanden (6490mm/300mm bzw. 6590mm/300mm).

D.h. der Ankoppelfaktor ist in dem Fall (die ASI hat 3,75um-Pixel) ca. 5,9!!!

Dieser Faktor liegt fast Faktor 2 von Gerd's favorisierter Ankoppelung (3,6x) entfernt, dagegen aber sehr in der Nähe des von mir zur Orientierung vorgeschlagenen Faktors 6,2x!
sag mal was soll das denn?
Was soll das beweisen?
Klar sind die Bilder gut, das sollten sie auch sein wenn sie über 3,6 liegen.
Es beweist aber absolut nicht das es irgendeinen Praxisrelevanten Vorteil hätte mit 5,9 oder 6,2 zu arbeiten.

Allerdings habe ich keineswegs, wie Gerd meint den heiligen Gral gefunden (leider ...), da auch mir ein paar Faktoren nicht ganz klar sind. Weiter diskussionswürdig wären u.a. der Einfluss der Pixelanisotropie, der Einfluss des integrierenden samplings (keine infinitesimal kleinen Punkte) und schließlich die Rekonstruktion durch die EBV.

Na das ist ja schon mal ein Fortschritt das du das eingestehst.
Genau es ist einiges unklar und es lässt sich auch nicht so ohne weiteres bis ins letzte Detail Klarheit schaffen.
Dazu ist die Sache zu komplex und die Faktoren von Fall zu Fall zu unterschiedlich.
Daher ergibt sich eben eine schwammige Situation und einige Annahmen müssen zwangsläufig mehr oder weniger willkürlich getroffen werden.
Außerdem werden die Unterschiede je näher man am Optimum ist immer kleiner und es stellt sich selbst wenn man es absolut exakt berechnen könnte dann dennoch die Frage wo genau wird es nun Praxisrelevant.
Nehmen wir an um 99,9% zu erfassen bräuchte es Faktor 10
Um 99% zu erfassen Faktor 7
Um 98% zu erfassen Faktor 5
Was soll man da nun sagen meist du ernsthaft das hier irgendein Unterschied am fertigen Planetenbild erkennbar wäre?
Der Ganze Streit hier ist daher auch ziemlich lächerlich weil es um wirklich lächerliche Unterschiede geht die den ganzen Streit und das viele Hirnschmaltz was da einige drauf verwenden bei weitem nicht wert sind.
Wer die Stärke einer Scheibe Brot angeben möchte muss kein Präzisionsmessgerät verwenden und dann darüber sinnieren wo genau denn die Brotscheibe nun zu Ende ist, muss ich den einen Krumen der auf der Scheibe hervorsteht mitmessen oder reicht es aus so in etwa die durchschnittliche Oberfläche zu nehmen.
Na ja ich habe solche Probleme nicht und mir reicht s auch beim Faktor der Anbindung den Wert so in etwa zu kennen ab dem es zu nennenswerten Unterschieden kommt und das ist 3,6.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
Hallo miteinander,

es ist schon bemerkenswert, mit welcher Akribie und Kampfeslust hier sämtliche Feinheiten der Bildstörung durch das Kameraraster erörtert werden, während die Störung des Bildschirmrasters bei der Bildwiedergabe völlig unbeachtet bleibt und bisweilen sogar regelrecht ignoriert wird. Dazu zwei Beispiele:

Zitat von blueplanet:
Die Details sind demnach auch schon alle in der kleineren Version gerade so sichtbar. Sie sollten nicht im Bildschirmraster untergehen.
Sollten sie nicht ? Hast Du denn den unvergrößerten Saturn aus der Studie wirklich schon mal aus der Nähe betrachtet, ich meine, indem Du mit Deinem Kopf entsprechend nah an Den Bildschirm herangehst ?

Zitat von blueplanet:
Tirion hat gerade Jupiterbilder hier eingestellt
Die Bilder von Tirion sind ja nun gerade ein Beispiel dafür, wie man nicht nur das Kameraraster, sondern gleichzeitig auch das Bildschirmraster mit ein und derselben Maßnahme, nämlich mit der optischen Nachvergrößerung unschädlich macht.

Um den Sachverhalt nochmal auf den Punkt zu bringen: Nach meiner Auffassung und praktischen Erfahrung braucht man zur Überwindung des durch das Kameraraster erzeugten Quantisierungsfehlers bei der Aufnahme eine minimale Ankopplung der Kamera bei f/D ~ 3*p, und - ganz unabhängig davon - zur Überwindung des durch das Bildschirmraster gegebenen Quantsierungseffekts bei der Wiedergabe einen minimalen Abbildungsmaßstab. Der Abbildungsmaßstab kann aber, je nach Qualität des Aufnahmematerials, ohne Mühe über eine datentechnische Nachvergrößerung eingestellt werden und muss nicht bereits während der Aufnahme festgelegt werden.

Bei gutem Aufnahmematerial benutze ich Nachvergrößerungen bis zu 2,4x. Würde ich - wie Tirion - ohne Nachvergrößerung arbeiten und den endgültigen Wiedergabemaßstab bereits bei der Aufnahme festlegen, dann müsste ich in diesem Falle die Kamera mit f/D ~ 2,4*(3*p) = 7,2*p ankoppeln.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Zitat von Ries:
hat schon wer einen Binning-Versuch gemacht?
Hallo Wolfgang,

schön, dass Du hier auf diese naheliegende Möglichkeit einer Klärung aufmerksam machst ! Dieselbe Idee hatte ich auch schon, konnte sie aber bislang nicht umsetzen, weil sich meine derzeitige Kamera mit FC offenbar nicht im Binning-Modus betreiben lässt. Ich will es aber jetzt nochmal mit einer anderen Kamera versuchen.

Gruß, Jan
 
Hallo Jan,

Zitat von Jan_Fremerey:
Hast Du denn den unvergrößerten Saturn aus der Studie wirklich schon mal aus der Nähe betrachtet, ich meine, indem Du mit Deinem Kopf entsprechend nah an Den Bildschirm herangehst ?
Dabei kommt es bei mir zu 2 Bildstörungseffekten (LCD-Bildschirm): Ein Fliegengittereffekt, da die Pixel keine 100% Füllrate der Bildschirmfläche haben. Dazu ganz leichte Farbsäume links und rechts an Rändern, da die RGB-Subpixel nebeneinander liegen.

Diese Probleme lassen sich aber ganz leicht minimieren, indem man das Bild z.B. pro Achse 3x per "nearest neighbor" vergrößert und mit den Augen 3x soweit vom Monitor weggeht. Ein Pixel des Bildes wird dann (ohne Interpolationsartefakte) mit 9 Bildschirmpixel abgebiltet.

Zum Testen:
(rechte Maustaste aufs Bild -> Grafik anzeigen für volle Größe)
Link zur Grafik: http://fs1.directupload.net/images/150226/fbudzel9.png

Gruß Peter
 
Hallo Jan
Zitat von Jan_Fremerey:
ja, genau, und da nur wenige Autoren überhaupt von der Nachvergrößerung Gebrauch machen, ist anzunehmen, dass sie den Abbildungsmaßstab grundsätzlich allein über die optische Brennweite einstellen
Ich weiß nicht, ob das anzunehmen ist. Vielmehr wird der eigentliche Grund doch die unter optimalen Bedingungen zu erwartende höhere Detail-Auflösung sein, die man sich durch die längere Brennweite verspricht. Das die Bildgröße dann schon soweit passt, ist ein Nebeneffekt, nicht jedoch der eigentliche Grund.

Zitat von Jan_Fremerey:
Einige von uns ziehen daraus nun zu Unrecht den Schluss, dass man prinzipiell diese überlangen Aufnahme-Brennweiten braucht.
Das weiß ich nicht, ob einige dieses Schluss ziehen. Vielmehr nehme ich an, dass die anderen Fotografen schon so schlau sein werden, sich durch mehr Brennweite eine bessere Detail-Auflösung zu versprechen. Was im übrigen auch der Gegenstand dieser ganzen Diskussion ist. Das Bildschirm-Raster braucht da nicht betrachtet werden, denn das stiftet nur Verwirrung. Du möchtest doch nun aber nicht über ein solches Verwirrspiel argumentieren, sondern doch wohl eher klare Argumente vorbringen, nicht wahr?

Zitat von Jan_Fremerey:
Aus der Saturnstudie habe ich gelernt, dass dort f/D = 2,7*p als Ankopplung für die Erfassung aller Bilddetails ausgereicht hat, und dass ich für eine saubere Wiedergabe der mit dieser Ankopplung gewonnenen Bilddetails einen größeren Abbildungsmaßstab brauche, aber keine längere Kamera-Ankopplung. Das ist der Zusammenhang, den ich hier sehe, der aber bislang offensichtlich von keinem unserer überzeugten Langoptiker auch nur ansatzweise in Betracht gezogen wurde.
Dieser Umstand wurde hier ja nun ausführlich diskutiert. Es war ja gerade die Frage, ob deine 2.7*P überhaupt ausreichen. Nach einigen schlüssigen Argumenten könntest du damit zumindest knapp angebunden sein. Dass du der Meinung bist, deine Ankopplung reicht aus, ist ja gut und schön, es gibt aber eben auch andere Sichtweisen und Erfahrungen, die nicht ohne Weiteres vom Tisch gewischt werden sollten.



Viele Grüße,
Christian
 
Hallo,

@Gerd:
Zu den aufgezeigten Problemen und Beispielen keine Stellung zu nehmen und den Rest versuchen mit polemischer Kritik herunter zu machen oder in's Lächerliche ziehen zu wollen ist natürlich auch eine Art eine Diskussion zu führen. Nur kommt dabei selten was Sinnvolles raus.

-Du willst nicht einsehen, dass bei einem sampling nahe an bzw. unterhalb der Nyquist-Grenze diverse Probleme bzgl. Artefakte/Alias/spatial aliasing auftreten.
-Du willst nicht einsehen, dass die Auslegung nach der höchsten Übetragungsfrequenz zu erfolgen hat, d.h. weitere Artefakte kommen hinzu.
-Du willst nicht einsehen, dass die Pixelgeometrie und eben das intergrierende sampling eine Rolle spielt.

Dabei wären das absolute sampling-Basics!!!

Es geht also nicht nur darum, die paar letzten Prozent an Aufösung zu erhalten, sondern auch darum Artefakte/Fehlinformation zu vermeiden, da diese sonst in der anschließenden EBV (Schärfung, etc.) hervorgehoben werden.
Ich weis nicht, wie oft ich das jetzt schon geschrieben hab' ...

-Anstatt diesen Punkt einzusehen, versuchst Du ihn lediglich in's Lächerliche zu ziehen!

Außerdem sollte eigentlich klar sein, das gegenüber dem idealisierten Nyquist-sampling-Theorem in unserem Fall von haus aus keine vollständige Rekonstruktion möglich ist.
Ein weiterer Grund von der Nyquist-Grenze Abstand zu halten und die sampling-Frequenz zu erhöhen!

-Stattdessen vertrittst Du einen Ankoppelfaktor (N=3,6xPixelbreite), der sich nach einer mittleren Aufnahmewellenlänge (550nm) berechnet und außerdem genau an der Nyquist-Grenze des Sensors liegt!
Damit ignorierst Du gerade die Randbedingungen des von Dir selbst verwendeten sampling-Theorems; wo ist da die Logik?

Es gibt eben alleine vom sampling her gute Gründe Abstand von der Nyquist-Grenze zu halten und genau das beachtet man eben auf dem professionellen Sektor und wählt ein sampling von um oder über 3 Pixel/cycle der max. Auflösung.
Ich habe dazu genügend Beispiele und Literaturstellen aus Gebieten gebracht, bei denen das sampling ebenso eine Rolle spielt (Astronomie, Mikroskopie, Interferometrie, ...). Nur Lesen und beachten willst Du sie offensichtlich nicht?

Da diese Fälle z.T. sehr gut mit unserem Fall der hochauflösenden Planetenphotographie vergleichbar sind, bin ich nach wie vor der Meinung, dass man sich daran orientieren sollte und hab' das mehr als ausführlich begründet.

-Nur leider hast Du nie zu diesen Beispielen Stellung genommen, die eben zeigen, dass es durchaus sinnvoll ist, bei höheren Ankoppelfaktoren zu arbeiten.
Die Frage, warum man sich nicht an diesen Beispielen orientierten sollte, läßt Du unbeantwortet.

Klar! Es gibt ja eigentlich auch keinen vernünftigen Grund sich nicht daran zu orientieren!


Ausserdem hat mir immer noch keiner von euch Vertretern der kleinen Ankoppelfaktoren folgende Frage beantwortet:
Warum Artefakte/Auflösungsverlust und eine komplexere Bildverarbeitung in Kauf nehmen, wenn sich all das leicht durch eine Ankoppelung mit einem etwas größeren Faktor umgehen ließe?
Die aktuellen Cams sind hierfür leicht empfindlich genug! Ich hab' das sogar mit meiner uralt-sw-ToUCam bei f/40 fertig gebracht ...


@All:
Ich fasse nocheinmal in groben Zügen die in meinen Augen sinnvollen Überlegungen bei der optimalen Ankoppelung Cam<->Teleskop zusammen.

Ausgangspunkt ist die maximale Auflösung des Teleskops nach der MTF-Betrachtung.
Die max. Auflösung ist bei MTF=0 erreicht.

Maximalauflösung (MTF=0) in lp/mm = 1/(N x Wellenlänge in mm)

Direkt an diesem Punkt ist keine Modulation bzw. kein Kontrast mehr vorhanden. Da man jedoch noch Kontrastunterschiede von wenigen Prozent mit Cams detektieren kann (entsprechend MTF ca. 0,98 ~ Dawes-Kriterium), kann man für diese Betrachtung auch den Wert bei MTF=0 verwenden.

Nach den Randbedingungen des sampling-Theorems ist die kleinste übertragene Wellenlänge (höchste übertragene Frequenz) anzusetzen.
Also bespielsweise für den Blaukanal, je nach Filterdurchlass: 400-450nm.

Aus der Wellenlänge und dem Öffnungsverhältnis N ergibt sich dann eine maximale Linienauflösung in lp/mm bzw. eine Linienpaarbreite, die nun von einem CCD erfasst, spricht gesamplet werden muss.

Zum sampling besagt das Nyquist-Shannon-Theorem etwa Folgendes:
"Ein Signal kann aus seinen Funktionswerten rekonstruiert werden, wenn das Originalsignal keine höheren Frequenzen als die halbe Samplingfrequenz hat."

D.h. unter idealen Voraussetzungen würde das Sampling eines Signals mit 2 FUNKTIONSWERTEN pro Cycle ausreichen, um aus den Funktionswerten das Ausgangsignal vollständig wiederherzustellen.

Diese idealen Voraussetzungen sind bei uns leider nicht gegeben, da wir mit einem regelmäßigen CCD-Raster samplen, das eine Richtungsanisotropie aufweist.
Außerdem samplen wir das Signal nicht bei infinitesimal kleinen Punkten, sondern integrieren das Signal quasi über die Pixelbreite auf.

Die Auswirkungen sind Kontrastverlust(Modulation), Auflösungsverlust, Artefakte/Alias und Kantenartefakte/spatial aliasing durch die regelmäßige Pixel-Anordnung.

Im Endeffekt sind wir dadurch gezwungen, mit mehr als 2 Pixel/cycle zu samplen.
Weitgehender Konsens in den astronomischen Anwendungsfällen mit Hochauflösung (professioneller Sektor) liegt bei um 3 Pixel/Detail bzw. 3 Pixel/lp (OHNE subpixelgenaue Auflösungsrekonstruktion wie beispiesweise beim HST!).
D.h. gegenüber Nyquist muss mit einem Faktor von 1,5x oversampled werden.

Nur als Beispiel weise ich nocheinmal auf meine (unmanipulierten!) Gitterlinienaufnahmen hin, die eben diesen Sachverhalt zeigen:
-Bei einem sampling von 3 Pixel/cycle sind die Linien in xy- und Diagonalrichtung vollständig getrennt und ausreichend definiert abgebildet (spatial aliasing, Kantenartefakte).
-Bei einem sampling um 2 Pixel/lp treten immer mehr Artefakte/Auflösungsverluste auf, die Diagonalkanten zerfallen (spatial aliasing).
-Bei einem sampling unter 2 Pixel/lp nehmen Artefakte (alias) und Auflösungsverluste rapide zu (wenig verwunderlich).

Aus einer geometrischen Abschätzung geht in etwas dasselbe hervor (die maximale Linienauflösung muss mit mindestens 2 Pixeldiagonalen = 2,8x Pixelbreiten/cycle gesampled werden).

Das sampling bei ca. 3 Pixel/cycle ist demnach sinnvoll und genau das geht auch aus vielen Literaturangaben hervor (siehe meine posts hier und im Parallelthread).
Bei anderen Anwendungen (Interferometrie/Mikroskopie) wird sogar ein sampling von 4-5 Pixel/cycle empfohlen.


Obiges bedeutet nun konkret (ich verwende aus Übereinstimmungsgründen hier, so wie in meinen anderen posts den samplefaktor von 2,8 Pixelbreiten/cycle):

Ankoppelfaktor = 2,8 / (Wellenlänge in um)

bzw.

Pixelgröße im um = (N x Wellenlänge in um) / 2,8

bzw.

Öffnungsverhältnis N = 2,8 x (Pixelgröße in um) / (Wellenlänge in um)


Für gängige Cam-Pixel ergibt sich demnach beispielsweise für RGB-Aufnahmen (Limit: Blaukanal 450nm) etwa Folgendes:

3,75um-Pixel -> ~ f/23
5,6um-Pixel -> ~ f/35

Für andere Wellenlängen oder einen anderen sample-Faktor läßt sich das leicht anpassen.



@all:
Abschließend noch ein "besonderes" Beispiel:

Titan Imagery with Keck AO during and after Probe Entry
Imke de Pater, et al.
JOURNAL OF GEOPHYSICAL RESEARCH, 2006

Lesens- und vor allem sehenswertes paper mit hochauflösenden Aufnahmen des Saturnmondes Titan (ganz am Ende: Details!) gewonnen mit dem Keck II bei Eintritt der Huygens-Sonde!

Scope: 10m Keck II
Cam: NIRC2, 1024x1024 InSb, Pixel 27um, high angular resolution mode: 0,00994"/pixel
wavelength: 1,6um
Aufnahmebrennweite: 560m => f/56
=> max. Linienauflösung: 11,2 lp/mm, entspr. 89,6um/lp
sampling mit 3 Pixel => Pixelbreite sollte rund 30um sein
real werden 27um-Pixel verwendet, d.h. 3,3pixel/lp ...

Wenn ich mich nicht verrechnet hab', also auch hier um 3 Pixel/cycle beim sampling!

Wieviele Beispiele sind noch nötig?

Ok, damit ist für mich die Diskussion hier beendet! Es stehten alle wesentlichen Daten in meinen posts verteilt da. Literatur habe ich über die beiden threads hinweg auch ausreichend genannt. Jeder kann sich da informieren, die Überlegungen nachvollziehen und den Wahrheitsgehalt selbst verifizieren.
Ich werde' keine weitere Zeit investieren. Falls das jemand als Orientierung für seine Ankoppelung Cam<->Scope verwenden will: gut. Falls nicht: auch gut.

Ciao Werner
 
Zitat von Peter_Kratzek:
Ein Fliegengittereffekt, ... ganz leichte Farbsäume ... Diese Probleme lassen sich aber ganz leicht minimieren, indem man das Bild z.B. pro Achse 3x per "nearest neighbor" vergrößert ...
Hallo Peter,

Dank Dir für Deinen geschickt illustrierten Hinweis auf diese alternative Möglichkeit der Nachvergrößerung zur Befreiung der Bildinhalte vom überlagerten "Fliegengitter".

Gruß, Jan
 
Hallo Werner,

-Du willst nicht einsehen, dass bei einem sampling nahe an bzw. unterhalb der Nyquist-Grenze diverse Probleme bzgl. Artefakte/Alias/spatial aliasing auftreten.

wer redet denn vom Sampling unterhalb der Nyquist-Grenze?
Das ist eine Unterstellung.
Ich empfehle eben diese mit N=3,6*P einzuhalten.

-Du willst nicht einsehen, dass die Auslegung nach der höchsten Übetragungsfrequenz zu erfolgen hat, d.h. weitere Artefakte kommen hinzu.

Entscheidend ist die Halbwertbreite des erfassten Spektrums, nicht die Extreme.
Bei einem Spektrum von 400 bis 700nm liegt man da mit 550nm genau richtig.

-Du willst nicht einsehen, dass die Pixelgeometrie und eben das intergrierende sampling eine Rolle spielt.

Zum einen war ja wohl ich es der auf die richtungsabhängige Auflösung der Rohdaten hingewiesen hatte.
Zum anderen hatte ich aber an deinem Beispiel mit den Diagonallinien bewiesen das man durch einen interpolierenden Algorithmus die Originalinformationen in dem Auflösungsvermögen das der Kantenlänge der Pixel entspricht aus diesen Rohdaten herstellen kann.
Die Auflösung des bearbeiteten Bildes erreicht daher in allen Richtungen ein Auflösungsvermögen das der Kantenlänge der Pixel entspricht.
Auch das Beispiel von Peter beweist das es im bearbeiteten Bild auf gar keinen Fall einen Verlust an Auflösung in der Diagonalen gibt.

Link zur Grafik: http://fs2.directupload.net/images/150220/zcdnr2yy.gif

Derartige Beweise ignorierst du einfach.

Es geht also nicht nur darum, die paar letzten Prozent an Aufösung zu erhalten, sondern auch darum Artefakte/Fehlinformation zu vermeiden, da diese sonst in der anschließenden EBV (Schärfung, etc.) hervorgehoben werden.
Ich weis nicht, wie oft ich das jetzt schon geschrieben hab' ...

Falsches wird auch durch unzähliges wiederholen nicht richtiger.
Du behauptest das Artefakte wegen Undersampling durch die EVB verstärkt würden.
Das ist falsch, unüberlegte EVB kann zwar Artefakte einführen aber nicht die wegen des Undersampling verstärken.
Zusätzliche Artefakte in falsch bearbeiteten Bildern resultieren daher auf fehlerhafter EVB und nicht auf Undersampling.
Fehlerhafte EVB kann es aber auch bei Bildern geben die mit höheren Abtastverhältnissen gewonnen wurden, es ist falsch zu glauben man könnte so Artefakte die aus fehlerhafter EVB resultieren vermeiden.

Einige Maßnahmen in der EVB können aber Artefakte wegen Undersampling reduzieren also genau das Gegenteil von dem was du behauptest.
Besonders wirkungsvoll ist das Erstellen von Summenbildern und genau das macht man ja bei der Planetenfotografie.
Artefakte werden hier nämlich rausgemittelt.
Eindrucksvoll sieht man diesen Effekt am Bildrauschen.
Das wird dann bekanntlich erheblich vermindert im Summenbild.
Das gilt aber auch für Artefakte wegen Undersampling.
Wir haben in einer Videosequenz eine dynamische Abtastung.
Details wandern während des Videos über verschiedene Pixel, wegen Seeing und wegen Nachführungsungenauigkeiten und zumindest bei Jupiter kann sogar die schnelle Rotation des Planeten zu diesem Effekt beitragen.
Die Situation bei so einer dynamischen Abtastung ist eine andere wie die einer statischen bei einem Einzelbild.

Außerdem sollte eigentlich klar sein, das gegenüber dem idealisierten Nyquist-sampling-Theorem in unserem Fall von haus aus keine vollständige Rekonstruktion möglich ist.
Wie oft soll ich das denn wiederholen, falls du dich erinnerst ich hatte dir gesagt das selbst bei deinem 6,2 noch keine 100% erreich werden können.
Fakt ist aber das man bereits mit 3,6 relativ nah am Maximum ist und auch durch bedeutend extremere Faktoren kaum ein Zugewinn mehr möglich ist.
Man kann rein auf das Prinzip bestehen und zu abenteuerlichen Faktoren kommen oder man kann sich an der Praxisrelevanz orientieren und feststellen das ab etwa 3,6 kein wirklich spürbarer Zugewinn mehr zu erreichen ist.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
Hallo Gerd,

wie oben schon geschrieben, mach' ich mir jetzt kein weiteres mal die Mühe, auf all Deine Fehler hinzuweisen und verdrehende Betrachtungen zu korrigieren (Nyquist, MTF, Pixelraster, Artefakte und deren Mittelung, ...).
Leider wird dann halt wahrscheinlich Vieles daraus, mangels besserem Wissen, kritiklos weiter übernommen werden.
Deswegen kann ich dem geneigten Leser nur empfehlen, dass er sich selbst z.B. das Nyquist-Shannon-Abtast-Theorem und die Randbedingungen hierzu durchliest und dann entscheidet, ob das von Dir Geschriebene stimmt.
Das gilt auch für den Rest der Ausführungen.


Die Antworten auf mehrere Fragen hast Du leider immer ausgelassen, z.B.:

-Warum wird bei einem vergleichbaren Problem auf dem professionellen Sektor mit einem deutlich höheren Ankoppelfaktor (sampling eben um 3 pixel/cycle) gearbeitet?
Nach Deinen Erläuterungen wär' das doch Unfug?
Diese höheren Ankoppelfaktoren lassen sich aber schlüssig erklären, wenn man eben all die von mir skizzierten Randbedingungen berücksichtigt und genau das tun offensichtlich auch die Profis!
Warum sollte man sich nicht daran orientieren?

-Warum Artefakte/Auflösungsverlust und eine komplexere Bildverarbeitung in Kauf nehmen, wenn sich all das durch eine Ankoppelung mit einem etwas größeren Faktor umgehen ließe?
Die aktuellen Cams sind hierfür leicht empfindlich genug!

Vielleicht führen diese Fragen bei den Vertretern der kleinen Ankoppelfaktoren nocheinmal zu einem Nachdenken.

Ciao Werner
 
Hallo Jan
Zitat von Jan_Fremerey:
Zitat von Christian_P:
Das Bildschirm-Raster braucht da nicht betrachtet werden, denn das stiftet nur Verwirrung.
diese Einstellung betrachte ich nicht gerade als eine geeignete Herangehensweise zur Lösung von Problemen.
Das Bildschirmraster ist ein separates Problem! Es hat nichts, aber auch gar nichts mit der idealen Ankopplung einer Videokamera an ein Teleskop zu tun, dem Thema, um das es hier geht. Das Ergebnisbild wird einfach entsprechend vergrößert und gut iss. Das ist ein Schritt in der Bildverarbeitung. Dieser Bearbeitungsschritt hat nicht den geringsten Einfluss auf die Videoaufnahme am Teleskop. Das ist trivial, denn beide Dinge stehen aufgrund der zeitlichen Abfolge in keinem kausalen Zusammenhang.

Meine Problemlösungsstrategie sieht nun so aus, dass ich das Problem der Darstellung auf dem Bildschirm nicht zu betrachten brauche, wenn ich die optimale Kameraanbindung herausfinden will, weil ich weiß, dass diese beiden Sachen unabhängig voneinander sind. So macht man das nun mal beim Problemlösen. Man entscheidet, welche Dinge wichtig sind und welche nicht. Gerade da machst du oftmals den Fehler, unwichtiges beizumischen, um deine niedrige Kameraanbindung dann dadurch irgendwie zu rechtfertigen.


Viele Grüße,
Christian
 
Zitat von Ries:
hat schon wer einen Binning-Versuch gemacht?
Hallo miteinander,

heute ist es mir endlich gelungen, den von Wolfgang angeregten Binning-Test durchzuführen. Dazu habe ich meine früher benutzte Cameleon Kamera mit 3,75 µm Chipraster an ein 500 mm f/8 Fernobjektiv ("Wundertüte") von Beroflex angekoppelt und die Optik auf f/22 abgeblendet. Mit diesem Setup und FireCapture habe ich dann eine Antennenanlage aus der etwas entfernteren Nachbarschaft aufgenommen, und zwar jeweils 30s im vollen Kameraformat 1280 x 960 und im 2x2 Binning-Modus.

Aus beiden Videos habe ich mit AutoStakkert Summenbilder erzeugt, wobei das aus dem mit Binning aufgenommene Video resultierende Summenbild im Format 640 x 480 vorlag. Dieses Bild habe ich in Fitswork mit dem interpolierenden dSinc-Algorithmus 2-fach nachvergrößert und es ebenso wie das ohne Binning gewonnene Summenbild einer einfachen Gauß-Schärfung unterzogen.

Die Ergebnisse habe ich in der folgenden Blink-Animation gegenübergestellt (Originalgröße über Rechtsklick):

Link zur Grafik: http://www.astro-vr.de/150228_Antennen_f22_R_Binning.gif

Die Vertreter der langen Ankopplung dürfen sich freuen, da die Bilddefinition in dem ohne Binning und Nachvergrößerung mit 3,75 µm bzw. f/D = 5,8*p gewonnenen Bildergebnis sichtbar besser herausgekommen ist als in dem mit Binning und 7,5 µm bzw. f/D = 2,9*p erzeugten Bild.

Beide Videos wurden mit dem Rotfilter aus dem RGB-Filtersatz Typ II von Astronomik aufgenommen. Im Anschluss hatte ich auch noch eine zweite Serie mit Blaufilter aufgenommen, die aber entgegen meiner Erwartung zu schlechteren Ergebnissen geführt hat. Möglicherweise ist die eingesetzte Linsen-Optik am kurzwelligen Ende doch etwas schlechter korrigiert als im Roten.

Auch wenn ich meine bisherige Auffassung von der optimalen Kameraanpassung angesichts dieser Ergebnisse nicht bestätigt sehe, freue ich mich doch, mit dem Versuch erstmals ein eigenes experimentelles Ergebnis in die Hand bekommen zu haben, welches mir eine verlässlichere Bewertung der hier vorgetragenen Theorien ermöglicht als etwa die Bezugnahme auf bekannte Autoren und Autoritäten.

Welche Bedeutung dieser insbesondere hinsichtlich der Sichtbedingungen ein wenig idealisierte Test für die astronomische Fotopraxis unter den Bedingungen des hierzulande herrschnden Seeings am Ende hat, kann ich nicht abschließend beurteilen.

Immerhin sehe ich mich veranlasst, die bisher an meinem f/5-Spiegel mit der ASI120MM eingesetzte 2,2x Klee-Barlow erstmal probeweise durch das Vorgängermodell mit 2,8-facher Nachvergrößerung zu ersetzen in der Hoffnung, damit zumindest bei extrem guten Sichtbedingungen möglicherweise noch eine Steigerung der Bildqualität zu erzielen.

Gruß, Jan
 
Hi Jan,

heute ist es mir endlich gelungen, den von Wolfgang angeregten Binning-Test durchzuführen. Dazu habe ich meine früher benutzte Cameleon Kamera mit 3,75 µm Chipraster an ein 500 mm f/8 Fernobjektiv ("Wundertüte") von Beroflex angekoppelt und die Optik auf f/22 abgeblendet. Mit diesem Setup und FireCapture habe ich dann eine Antennenanlage aus der etwas entfernteren Nachbarschaft aufgenommen, und zwar jeweils 30s im vollen Kameraformat 1280 x 960 und im 2x2 Binning-Modus.

sehr gut!

Kannst Du bitte noch in etwa sagen, wie weit die Antennenanlage entfernt war? 20, 50, 100 oder 200 Meter? Oder noch weiter weg? Das wäre wichtig. Denn je weiter weg, desto stärker wirkt sich das lokale Seeing aus und kann mit unserer Aufnahmewirklichkeit quehr durch die ganze Lufthülle der Erde verglichen werden...

Beide Videos wurden mit dem Rotfilter aus dem RGB-Filtersatz Typ II von Astronomik aufgenommen. Im Anschluss hatte ich auch noch eine zweite Serie mit Blaufilter aufgenommen, die aber entgegen meiner Erwartung zu schlechteren Ergebnissen geführt hat. Möglicherweise ist die eingesetzte Linsen-Optik am kurzwelligen Ende doch etwas schlechter korrigiert als im Roten.

das Beroflex ist nach meiner Erfahrung im Blauen schlechter korrigiert als im Grünen und Roten. Deckt sich also mit Deinem Ergebnis. :)

Auch wenn ich meine bisherige Auffassung von der optimalen Kameraanpassung angesichts dieser Ergebnisse nicht bestätigt sehe, freue ich mich doch, mit dem Versuch erstmals ein eigenes experimentelles Ergebnis in die Hand bekommen zu haben, welches mir eine verlässlichere Bewertung der hier vorgetragenen Theorien ermöglicht als etwa die Bezugnahme auf bekannte Autoren und Autoritäten.

Die Erfahrung aus eigener Praxis ist immer besser als graue Theorie. :)

Wenn ich mich recht erinnere, hast Du ne s/w Kamera. Mit Bayermatrix wird der Unterschied zwischen der erreichbaren Schärfe/Abbildungsleistung je nach Ankopplung noch deutlicher.

Immerhin sehe ich mich veranlasst, die bisher an meinem f/5-Spiegel mit der ASI120MM eingesetzte 2,2x Klee-Barlow erstmal probeweise durch das Vorgängermodell mit 2,8-facher Nachvergrößerung zu ersetzen in der Hoffnung, damit zumindest bei extrem guten Sichtbedingungen möglicherweise noch eine Steigerung der Bildqualität zu erzielen.

dann wünsche ich Dir gutes Seeing, damit sich dieses Experiment auch wirklich lohnt. :super:

Bitte berichte, wie es ausgegangen ist...


 
Hallo,

das Bildschirmraster muss man bei der Betrachtung zunächst ausser Acht lassen, definitiv!

Nur, weil man evtl. später ein Wiedergasbemedium mit niedriger Bandbreite verwendet, sollte man nicht mit dem Sampling runtergehn.

Andersrum formuliert, und evlt. besser verständlich: Details, die auf einem 1920x1200er Bildschirm mit 36" (ich übertreibe bewusst, um den Zusammenhang zu erläutern), also bei 61pixel per Inch aus 0,8m Betrachtungsdistanz (typische Schreibtischanordnung) gerade noch zu erkennen sind, sind auf einem 8" Full HD Tablet mit 250dpi (oder noch schlimmer einem *Pad mit über 300dpi) aus normalem Tablet-Beobachtungsabstand (40cm) nicht mehr erkennbar , da der angular spread des Einzelpixels schon unter der Auflösungsgrenze des Auges ist.
Genau aus diesem Grund halte ich nicht arg viel von Retinadisplays, weil sie de facto "Auflösungskiller" sind, zumindest bei der Präsentation guter(!) Fotos.
Auch usability-Studien im automotive-Bereich zeigen, dass bei typischen Cockpitanwendungen mehr wie 120ppi keine sichtbar feinere Auflösung mehr bringt und daher nur unsinnig Graphikcontroller-Performance vernichtet.

Viele Grüße

Markus


____________________________________________________

Quidquid agis, agas prudenter et respice finem!
____________________________________________________

Juniper Hill Observatory

Markus A. R. Langlotz
Dr.-Bruno-Sahliger-Str. 8
D-93096 Köfering

Die Astroseite: www.N-T-L.de
Die Sternwarte: sternwarte.N-T-L.de
Die Mailadresse: ntl.observatory (at) freenet.de


 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan,

beim Umstieg von der 2,2er Klee auf die 2,8er Klee hast Du definitiv eine Tatsache zu bedenken, die nichts mit den hier diskutierten Problemen und Maßnahmen zu tun hat.

Bei der Fertigung der 2,2er Klee-Barlow ist durchgängig (!) ein Fehler passiert. Ein matter Linsenrand wurde nicht abgedeckt und trägt definitv (Aussage mehrerer Tester und von Herrn Klee selbst) Streulicht ein. Das ist an hellen Objekten schon visuell sichtbar.
Diesen Fehler hat die 2,8er Klee durchgängig nicht.

Sollte eine deutliche Verbesserung eintreten sind die Ursachen mit hoher Wahrscheinlichkeit (wieder mal und wie meistens) vielschichtiger als man (häufig und zu oft) denkt.

Gruß
*entfernt*
 
Zuletzt bearbeitet:
Hallo Jan

das ist ein interessantes Experiment! Ich habe allerdings starke Zweifel an der Übertragbarkeit auf unsre Teleskope, weil mir der Unterschied zwischen beiden Bildern zu groß ist. Das hab ich so bei der Planeten- und Mondfotografie nicht wahrgenommen und auch nach dem Experiment von Gerd darf der Unterschied nicht so stark sein. Seeing hin oder her, so groß darf der Unterschied nicht sein.

Trotz aller Euphorie zur Praxis sollte man die Theorie nicht gänzlich außer acht lassen, die uns hier ja sogar was anderes sagt. Die optischen Schwächen dieser Wundertüte machen mir große Sorgen. Ich behaupte: Dieses Teilt taugt nicht für ein Experiment an der Auflösungsgrenze.


Ein Test mit einer guten Teleskop-Optik wäre besser.



Viele Grüße,
Christian
 
Hallo Fee,

Dank Dir für die freundliche Rückmeldung und die guten Wünsche im Hinblick auf den Einsatz der längeren Barlow!

Zitat von Sternenfee123:
Kannst Du bitte noch in etwa sagen, wie weit die Antennenanlage entfernt war?
Die Antennen stehen 400 m entfernt, da war Seeing tatsächlich schon deutlich zu erkennen, hier ein 50 Frames umfassender Ausschnitt von dem mit Binning bei 18 fps aufgenommenen Original-Video in Echtzeit:

Link zur Grafik: http://www.astro-vr.de/150228_122619_Rbin_cr248x280_000-049_44ms.gif

Das Seeing ist hier nach meiner Einschätzung viel "gutmütiger" als das aus der höheren Atmosphäre.

Gruß, Jan
 
Zitat von Lotz:
das Bildschirmraster muss man bei der Betrachtung zunächst ausser Acht lassen, definitiv!
Hallo Markus,

das ist ja völlig richtig, solange man nur über die Kamera-Ankopplung spricht. Wenn es aber um den endgültigen Abbildungsmaßstab auf dem Bildschirm geht, der ja groß genug für eine rasterfreie Wahrnehmung sein muss, dann sollte man diesen endgültigen Abbildungsmaßstab nicht bereits über die Aufnahmebrennweite einstellen. Das war es, was ich sagen wollte.

Gruß, Jan
 
Hallo Christian,

du arbeitest ja mit ca. P=6 und mit meiner AL zumindest kann man in Firecapure binnen. Da wäre es doch für dich vielleicht auch möglich,den Test wie ich ihn weiter oben beschrieben habe, bei deiner nächsten Jupiter-Session durchzuführen. Reicht ja, wenn du ein paar 30 sek Avi aufnimmst, abwechselnd mit und ohne Binning, wo bei dabei am Fokus nichts verändert werden darf, Histogramm ähnlich,.....Alles dann gleich stacksen.

Vielleicht gibts du die Rohsummenbilder z.B. auch Jan. Da sihet man vielleicht auch, ob unterschiedlche Bildbearbeitungs-Workflows einen Einfluß auf die Endergebnisse haben.

Vielleicht finden sich ja auch noch andere Planetenexperten (Fee, Markus, viele andere im Planetenboard....) die die Möglichkeit haben, den Versuch durchzuführen. Dadurch könnte eine aussagekräftige und praxisnahe Vergleichsbilder-Serie entstehen, an der wir uns Gelegenheits-Planetenknipser orientieren können.

Viele Grüße
Wolfgang
 
Hallo Christian,

und auch nach dem Experiment von Gerd darf der Unterschied nicht so stark sein.

ich finde das Ergebnis von Jan passt sehr gut zu meinen Ergebnissen.
Ich finde auch den Unterschied bei Jan nicht so groß wie du ihn offenbar empfindest, da haben wir wohl andere Maßstäbe.
Im Gegenteil, klar ist das Bild mit Binning etwas unschärfer, Kontrastärmer.
Wenn man aber bedenkt das hier immerhin ein Unterschied von Faktor 4 bei der Anzahl der Pixel besteht ist der Unterschied der sich hier zeigt eigentlich gar nicht so groß.
Jedenfalls steht er bei weitem nicht in einer 1 zu 1 Relation zur Vervierfachung der Pixelzahl.
Das zeigt das man selbst mit N=2,9*P so schlecht nun auch wieder nicht liegt.

Aber zum Vergleich mit meinen Messungen.
Nun ich hab nicht bei 2,9 und 5,9 gemessen aber bei 2,8 und 5,1.
Ich würde hier aber einen recht ähnlichen Unterschied erwarten.

Bei N*2,8 hatte ich den Durchmesser der Auflösungsgrenze am Siemensstern mit 76mm bestimmt
Bei N*5,1 waren es 63mm.
Der Unterschied wäre also 76/63 = 1,2
Also ein Auflösungsunterschied von 20%

Ich finde das passt sehr gut zu den Bildern von Jan.
Hier noch mal die Gegenüberstellung.

Grüße Gerd
 

Anhänge

  • 2,8_5,1.jpg
    2,8_5,1.jpg
    98,8 KB · Aufrufe: 1.746
Hallo Jan,

sehr schöner Test und im Gegensatz zu Christian finde ich das er recht gut zu meinen Ergebnissen passt.
Du liegst mit 2,9 halt doch noch spürbar unter der 3,6 Marke ab der die von mir ermittelte Kurve dann nur noch langsam ansteigt.
Damit ist hier ein spürbarer Unterschied zu erwarten gewesen.

Link zur Grafik: http://forum.astronomie.de/phpapps/ubbthreads/ubbthreads.php/ubb/download/Number/38856/filename/Diagramm.jpg

Ganz anders würde das aber aussehen wenn du mit N=3,6*Pixel gearbeitet hättest.
Eventuell wiederholest du diesen Test mal und blendest auf F27 ab.
Also dann 7,2*Pixel ohne Binning gegen 3,6*Pixel mit Binning.
Ich würde dann lediglich etwa 7% Unterschied erwarten und keine 20% wie im jetzigen Test und da wäre es mal interessant ob das dann noch auffällig wäre und der Gewinn in einer akzeptablen Relation zur Vervierfachung der Pixelzahl liegen würde.

Was man denke ich aber in jedem Fall sagen kann ist das Artefakte wohl auch bei 2,9 kein Thema sind.
Ich kann da beim besten Willen nicht erkennen das es bezüglich Artefakten irgendeinen Unterschied zwischen beiden Bildern geben würde.
Das beweist das das von unserem Theoretiker hier permanent vorgebetete Argument Artefakte völlig irrelevant ist.

Grüße Gerd
 
Hi Gerd
Zitat von Gerd_Duering:
und auch nach dem Experiment von Gerd darf der Unterschied nicht so stark sein.
ich finde das Ergebnis von Jan passt sehr gut zu meinen Ergebnissen.
nur damit wir Klarheit haben worüber wir hier reden. Ich schätze die Unterschiede in den Bildern als deutlich ein. So deutlich wie es mir bei meiner bisherigen Erfahrung mit f/10, f/16, f/23 und um die f/30 bei der Planeten- und Mondfotografie nie aufgefallen ist. 3*P scheint ja fast nur halb so Detailreich wie 6*P. So einen deutlich sichtbaren Unterschied erwarte ich eben gerade nicht bei einem Sprung von 3*P auf 6*P! Ich erwarte höchstens die von dir in deiner Kurve vorhergesagten 20% Unterschied in der Detailwiedergabe, eher weniger. Das Ergebnis von Jan steht also im starken Widerspruch zu meinen Erfahrungen. Ein Sprung von 3*P auf 6*P in der Videoastronomie mag einen Vorteil bringen, dieser ist aber garantiert nicht so deutlich und ausgeprägt, wie auf den Vergleichsbildern von Jan oben. Das muss irgendeinen anderen Grund haben.



Viele Grüße,
Christian
 
Hallo Christian,

3*P scheint ja fast nur halb so Detailreich wie 6*
also für so eine Aussage fehlen mir ehrlichgesagt auf den Bildern die ganz feinen Details an denen ich sowas festmachen könnte.
Wie kommst du da drauf und woran machst du es genau fest?
Ganz konkret, welches feine Detail auf dem Bild ist denn bei N=6*P sichtbar und bei N= 3*P nicht?
Ich sehe hier in erster Line Unterschiede bei Kontrast und Schärfe, weniger in den sichtbaren Details.
Die Unterschiede bei Kontrast und Schärfe dürften auch der Nachvergrößerung geschuldet sein.
Eventuell würde hier auch ein anderer Algorithmus bei der Nachvergrößerung ein etwas besseres Ergebnis bringen.
Es wäre schön wenn Jan mal das Bild mit N=3*P in originaler Größe reinstellen würde, ich würde dann gerne mal einen anderen Algorithmus zur Nachvergrößerung ausprobieren.

Nachtrag
Eventuell ist unsere doch etwas unterschiedliche Wahrnehmung auch dem jeweiligen Monitor geschuldet.
Angefangen bei Einstellungen für Kontrast und Helligkeit könnte auch die verwendete Panel Technologie eine Rolle spielen.
Ich hab ein MVA Panel mit nativem Kontrast von 3000/1, also nix dynamisch schöngerechnet.
Ein einfaches TN hat üblicherweise nativ 1000/1.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
Zitat von Christian_P:
Das Ergebnis von Jan steht also im starken Widerspruch zu meinen Erfahrungen. Ein Sprung von 3*P auf 6*P in der Videoastronomie mag einen Vorteil bringen, dieser ist aber garantiert nicht so deutlich und ausgeprägt, wie auf den Vergleichsbildern von Jan oben. Das muss irgendeinen anderen Grund haben.
Zitat von Gerd_Duering:
Eventuell würde hier auch ein anderer Algorithmus bei der Nachvergrößerung ein etwas besseres Ergebnis bringen.
Hallo miteinander,

heute bekam ich eine Nachricht von Peter Müller, der beruflich in der Radioastronomie einen Spline-Algorithmus 5. Ordnung zur verlustfreien Nachvergrößerung einsetzt. Er hat einen Ausschnitt meines ohne Binning aufgenommenen Antennenbilds auf 50% verkleinert und anschließend mit seinem Algorithmus wieder um den Faktor 2 auf den Originalmaßstab vergrößert. Die Unterschiede zwischen dem Original und dem zwischenverkleinerten Bild sind jetzt deutlich geringer als zuvor, wie die folgende Animation zeigt:

Link zur Grafik: http://www.astro-vr.de/150302_Blinkvergleich_PMueller.gif

Möglicherweise war also die Befürchtung einer zu geringen Ankopplung bei f/D ~ 3*p doch ein wenig übertrieben ?

Gruß, Jan
 
Hi Wolfgang,

Vielleicht finden sich ja auch noch andere Planetenexperten (Fee, Markus, viele andere im Planetenboard....) die die Möglichkeit haben, den Versuch durchzuführen. Dadurch könnte eine aussagekräftige und praxisnahe Vergleichsbilder-Serie entstehen, an der wir uns Gelegenheits-Planetenknipser orientieren können.

wie stellst Du Dir so einen Versuch vor?

Nachdem ich vor 2 Jahren von der s/w DMK mit altem Chip auf die ALCCD5L-IIc gewechselt hatte, hab ich sie an meinem 8" Newton bei verschiedenen Ankopplungen getestet. Dann am 6" Newton, dann am 6" Mak. Weil der Mak für den hochstehenden Jupiter so "handlich" war, bin ich seither beim Mak geblieben mit einer Ankopplung von f=23 über ne Barlow. An den f=5 Newtons hatte ich Okularprojektion mit f=25. Bei beiden Ankopplungsfaktoren hatte ich durch die Bank weg die besten Ergebnisse. Bei Ankopplungen unter f=20 konnte ich lange nicht so viele Details rauskitzeln.

Zu den theoretischen Betrachtungen kann ich nix beitragen - bin mit Mathe nicht so auf "Du und Du". Formeln machen mir echt Kopfweh. Bin eher der Praxistyp. ;)

Und aus der Praxis raus kann ich auch blos Ergebnisse mit relativ kleinen Öffnungen beitragen. Vor 2 Jahren war es für mich persönlich ne Sensation, daß ich mit der s/w DMK 31AU03.AS und Astronomik Filtern im Filterrad am 8"er in der Lage war, auf Ganymed´s winzigem Scheibchen bei sehr gutem Seeing und passender Transparenz Helligkeitsunterschiede nachweisen konnte, die in Form und Orientierung denen entsprachen, die andere Fotografen mit 11" oder mehr machten.

Dieses Jahr konnte ich dank der passenden Bahngeometrie von Erdumlaufbahn und Jupiterumlaufbahn die Bedeckung und Verfinsterung von Ganymed durch Io 2x fotografisch mit dem 6" Mak festhalten.

So rein theoretisch wäre das nach meinem Verständnis eigentlich garnicht möglich. Hat doch Ganymed lediglich 1,67 Bogensekunden scheinbaren Durchmesser, der Kernschatten der Sofi hat laut Simulation in Guide 8 grad mal 0,41 Bogensekunden und die theoretische Auflösung meines 6" Mak wird vom Händler mit 0,69 Bogensekunden angegeben. ?)

Bei einer Ankopplung von f=23 hat Ganymed nach 1,5 fach Drizzle 16 Pixel im Durchmesser, der Kernschatten 6 Pixel. Der Schatten ist auf 13 Summenbildern im Abstand von 30 Sekunden eindeutig da. Hier die Animation vom 12. Februar:

Link zur Grafik: http://www.sternwarte-zollern-alb.de/mitarbeiterseiten/kowollik/jupiter/jupiter-2015-02-12-ganymedeclips-21-45-22-bis-21-50-26-ut.gif

Und hier die Animation vom 20. Februar. Da war das Seeing leider nicht so gut, da mußte ich auf 60 Sekunden Schrittweite gehen:
Link zur Grafik: http://www.sternwarte-zollern-alb.de/mitarbeiterseiten/kowollik/jupiter/jupiter2015-02-20-ganymedeclips-by-io.gif

Beide Aufnahmen hab ich von meinem Balkon am Stadtrand von Ludwigsburg gemacht, nicht im Hochgebirge oder in Namibia. Also bei dem hier in Deutschland üblichen Seeing...

Bei einer Ankopplung mit f=12 (die angeblich für die 3,75 my großen Pixel meiner Farbkamera ausreicht und der Originalankopplung an meinem Mak entspricht), hätte ich das nicht geschafft. Da wären schlicht zu wenig Pixel vorhanden, um das so abbilden zu können...

Die einzige Erklärung, die für mich irgendwie Sinn macht, liegt im kräftigen Kontrastunterschied zwischen dem "hellen" Ganymed und dem schwarzen Schatten. So wie man im Teleskopen mit viel Öffnung visuell die Enketeilung "sehen" kann, oder auch Stromleitungen in mehreren km Entfernung vor dem hellen Mond, obwol es nach der Theorie zum Auflösungsvermögen nach Nyquist nicht paßt...

Für mich steht fest, daß die Anforderungen für langbelichtete Deepsky-Fotos und Planetenfotografie völlig unterschiedlich sind. Irgendjemand hier im Thread hat geschrieben, daß 90 % Qualität völlig ausreicht. Bei Planeten sind 90% Qualität ein Witz. Da fehlen dann "gefühlte 90 %" der Details, die bei gutem Seeing und ausreichend Kontrast möglich wären...
 
Hallo

@Gerd,
Zitat von Gerd_Duering:
Was man denke ich aber in jedem Fall sagen kann ist das Artefakte wohl auch bei 2,9 kein Thema sind.
Ich kann da beim besten Willen nicht erkennen das es bezüglich Artefakten irgendeinen Unterschied zwischen beiden Bildern geben würde.
Das beweist das das von unserem Theoretiker hier permanent vorgebetete Argument Artefakte völlig irrelevant ist.

nur als gedankliche Anregung auf Deinen Seitenhieb:
-Erreicht denn die Optik überhaupt die Beugungsgrenze?
-Wie wirkt sich das auf das Bild aus, wenn die Optik nicht die Beugungsgrenze erreicht, sondern größere Zerstreuungsscheibchen produziert?
-Wie wirken sich dann diese Tiefpass-Filtereigenschaften wohl auf die Artefakte aus?
-Nachdem Du Artefakte ja ausschließt, musst Du sie ja offensichtlich gut erkennen können: also wo und wie würden sich Artefakte denn bemerkbar machen?

PS.: Beide Pics (binned und ungebinned) lassen sich problemlos auf den selben level schärfen (was sagt das wohl?) und dann erkennt man auch die Artefakte in dem binned Bild; aus obigen Gründen natürlich schwächer.


@Fee:
Meine eigenen Erfahrungen gehen ebenfalls in Richtung eines höheren Ankoppelfaktors. Leider läßt sich das halt nur schlecht praktisch "beweisen", da es nur sehr wenige Tage im Jahr mit gutem seeing gibt.
Deswegen eben die Herleitung der optimalen Ankoppelung anhand von theoretischen Überlegungen, Literaturrecherchen und Vergleichsprojekten. Daraus ergibt sich aus schon erläuterten Gründen eben ein sampling deutlich über der Nyquist-Grenze (2 Pixel/cycle), mit Schwerpunkt bei 3 Pixel/cycle bzw. Detail. Interessanterweise arbeiten professionelle hochauflösende Projekte, die den seeing-Einfluss quasi ausschalten (DOT, AO, ...) und somit optimal ausgelegt werden können, ebenfalls in etwa bei diesem sampling.
Auf unseren Fall übertragen entspräche das in etwa einem Ankoppelfaktor von ca. 6,2x (Blaukanal, RGB-Aufnahmen).

Bei einer 3,75um-Pixel-Cam ergäbe das dann in etwa f/23 (N=6,2 x Pixelbreite).

Ciao Werner
 
Hallo Fee,

bei der Theorie kann ich auch nicht mitreden. Das überlasse ich den beiden Anbindungsfraktionen.

Auf den Punkt gebracht, geht es darum, welcher Wert für P in der Formel N = P x µ der "richtige" ist.

Leider kann man ja die Bilder von verschiedenen Bildautoren mit unterschiedlichen Equipment und Standortbedingungen nicht wirklich objektiv vergleichen. Deine Bilder sind natürlich spitze und mit ca. P ~ 6 aufgenommen. Aber die Jupiterbilder von Jan sind auch spitze und der setzt auf P ~ 3.
Deine Erfahrungen gehen in die Richtung, dass du mit P ~ 6 besser fährst. Aber 100% sicher kann man da nie sein, da das Seeing in den verschiedenen Nächten unterschiedlich war und ob der Fokus jeweils wirklich 100% getroffen wurde. Ich glaub dir das natürlich, aber "beweisen" kannst du es nicht.

Daher mein Vorschlag, in der Formel N = P x µ die Pixelgröße durch das Binning zu verändern und da man ja weiter mit der gleichen Brennweite arbeitet, wir der Wert für P halbiert.
Wenn also jemand mit P ~ 6 arbeitet, kann er ohne das Setup und den Fokus zu verändern Vergleichsvideos mit P ~ 3 aufnehmen.


F/23 23 ~ 6 x 3,75
F/23 23 ~ 3 x 7,5

Falls die Kamera und die Aufnahmesoftware das Binning zulassen, könnte man zumindest praxisnahe Vergleichsbilder bekommen.

Jan hat noch den Versuch angeregt, seine Optik abzublenden, um damit auf diese Weise unterschiedlcihe P zu erhalten.

Sicher lässt sich auch damit was zeigen. Kritiker könnten wieder einwerfen, dass damit eventuell die Obstruktion steigt, oder er verwendet eine Offaxisblende und wäre damit plötzlich obstuktionsfrei.... Beim Binningversuch wäre natürlich auch der Gain oder die Belichtungszeiten unterschiedlich..... Überalle gibts noch Lücken im Versuchablauf, aber die Ergebnisse lassen sich aus praxisrelevanter Sicht einigermaßen gut interpretieren.

Je mehr Planetenfotografen dies Tests durchführen, umso ausagekräftiger wird das ganze, besonders wenns noch Zusatzinfos wie Seeing, Transparenz, usw. gibt. Vielleicht kann man dann irgendwann auch mal Rückschlüsse ziehen, bei welchem Seeing und welchem P man gut Ergebnisse erwarten kann.

Viele Grüße
Wolfgang
 
Status
Es sind keine weiteren Antworten möglich.
Oben