Auflösungsvermögen und Sampling

Status
Es sind keine weiteren Antworten möglich.
Hallo Gerd und Peter
Zitat von Gerd_Duering:
Wer eine monochromatische Kamera hat kann ja aber problemlos den Faktor 1,3 berücksichtigen und die von mir hier gefundenen Ergebnisse dementsprächend umrechnen.
Wie wurde denn der Faktor 1.3 berechnet? 1.3 ist eigentlich (viel) zu wenig, wird hier aber tatsächlich wahrscheinlich genügen, da man davon ausgehen kann, dass Grün die einflussreichste Wellenlänge für die Detailauflösung war. Was man machen könnte. Man könnte die RGB-Bilder in die einzelnen Farbkanäle aufteilen und diese beurteilen, zumindest Grün.

Bei einer Planetenaufnahme im RGB-Verfahren mit Interferenzfiltern macht man ja für jeden Filter ein Video. Von daher müsste man bei einer Farbkamera streng genommen auch wieder jeden farblichen Teilbereich der Bayermatrix betrachten und hier ebenfalls den schlechtesten Fall bestimmen. Dann kommt man aber auf Anbindungen der Kamera jenseits von Gut und Böse.

Was bei diesem Test eigentlich auch fehlt, ist die Technik über Summenbild und Schärfungsalgorithmus, die ja auch noch einen Zugewinn bringt.




Gruß
Christian
 
Hallo zusammen,

nachdem es thematisch auch hierher passt, poste ich es nocheinmal...

Es wird ja oft behauptet, dass zur Erfüllung des sampling-Theorems 2 Pixel/cycle genügen würden. Weiterhin wird behauptet, dass es genügt die Pixelbreite gegenüber der eigentlich nötigen Pixeldiagonale als Dimension zu verwenden.

Um abzuklären, welchen Effekt die Pixelgröße und Pixelausrichtung beim sampling hat, habe ich folgendes Experiment durchgeführt.
Verwendet wurde eine monochrom-CCD-Cam/Objektiv-Kombi. bei einer mittleren Wellenlänge von ca. 550nm. Das Liniengitter wurde senkrecht (parallel zur CCD-Pixel-Ausrichtung) bzw. mit 30Grad-Neigung zur Senkrechten bei sampling-Raten von 1.5-, 2-, 3-Pixel/cycle aufgenommen (das Einjustieren war SEHR mühsam...).

Erklärung zur Grafik (Gitterlinienrichtung mit schwarzen Strichen angedeutet):
-Obere Reihe: Liniengitter um 30grad gegen Senkrechte nach links geneigt
-untere Reihe: Liniengitter senkrecht (parallel zur CCD-Pixel-Ausrichtung)

-linke Spalte: sampling 3 Pixel/Linienpaar (=1,5x Nyquist, Faktor 5,5x (550nm))
-mittlere Spalte: sampling 2 Pixel/Linienpaar (=1x Nyquist, Faktor 3,6x (550nm))
-rechte Spalte: sampling 1.5 Pixel/Linienpaar (=0,75x Nyquist, Faktor 2,7x (550nm))

Das Ergebnis ist eindeutig (siehe angehängte Grafik):

1.5-Pixel/lp:
Weder die Diagonal-, noch die Vertikallinien werden getrennt. Diagonal ergibt sich ein Schachbrettmuster und vertikal erfolgt eine Auflösungsreduktion durch Überlagerung.

2-Pixel/lp:
Die Diagonallinien werden nicht getrennt, das sampling ist unzureichend.
Die Vertikallinien werden gerade eben aufgelöst; bei nicht exakt stimmender Phase erfolgt Auslöschung (grauer Bereich, der sich diagonal durch's Bild zieht).

3-Pixel/lp:
Erst hier werden Diagonal- und Vertikallinien durchgängig sauber getrennt.


Insofern wird klar, dass die Pixeldiagonale der zu verwendende Parameter ist! Erst bei 2 Pixeldiagonalen bzw. ca. 3-Pixelbreiten pro cycle liegt ein minimal ausreichendes sampling vor (linke Spalte).
Das stimmt auch mit diversen Literaturstellen (siehe meine posts im thread "Überlegungen zum sampling für high resolution") überein, die ein sampling von 3-4 Pixelbreiten/cycle empfehlen.
Selbstverständlich sollte man auch keine mittlere Frequenz (z.B. 550nm) sondern die höchste Frequenz ansetzen, da die höchste von dem Scope übertragenen Frequenz (für VIS/RGB: Blaukanal mit um 450nm) von dem CCD ausreichend (d.h. mit mind. 2 Pixeldiagonalen bzw. ca. 3 Pixelbreiten) gesamplet werden sollte.

Entgegen anderslautenden Meinungen ist damit meine theoretische Voraussage
Zitat von blueplanet:
Direkt bei der Maximalauflösung ist kein Kontrast mehr detektierbar. Insofern wurde 0,98 der Maximalauflösung (zufälligerweise Dawes-Limit) bei einer noch minimalen MTF als oberes Limit gewählt (laut Lit. ist diese Annahme gerechtfertigt).

Beim sampling dieser max. übertragenen Linienpaaranzahl wurde die Chipdiagonale angesetzt, um ein undersampling in Diagonalen-Richtung zu vermeiden (2x sqr2).

Als minimale Wellenlänge wurde 450nm gewählt, um auch bei RGB-Aufnahmen die volle Auflösung des Blaukanals zu nutzen.

Daraus folgt:
Mindest-sampling bzw. max. Pixelbreite = (Linienpaarbreite bei MTF=0, 450nm)/2,9
oder
Pixelbreite = N/6,2

D.h. z.B.
5,6um-Pixel -> f/34,7
3,75um-Pixel -> f/23,2
keineswegs "schwammig", sondern sogar sehr zutreffend!

Einen Ankoppelfaktor um 6x und meine oben genannten Richtwerte halte ich damit nach wie vor für gerechtfertigt.


Ciao Werner
 

Anhänge

  • collage-text-70.jpg
    collage-text-70.jpg
    91,6 KB · Aufrufe: 2.229
Zitat von Gerd_Duering:
Man muss den Öffnungsunterschied Bemühen um dieses Ergebnis zu erklärten!
Hallo Gerd,

inzwischen habe ich Deinen Denkansatz verstanden. Umso mehr muss ich aber jetzt erneut die Frage stellen, inwieweit es Sinn macht, für diese Tests eine Fotooptik einzusetzen, deren Abbildungsleistung doch - wenn überhaupt - nur bei kleinen Öffnungen, d.h. großen Blendenzahlen, als beugungsbegrenzt betrachtet werden kann. Beim Aufblenden nehmen ja die Bildfehler rapide zu, wodurch die Auflösung erkennbar schlechter wird, und nicht besser, wie Dein Ansatz es nahelegt. Mir ist nicht ganz klar, auf welche Weise Du die mit der Öffnung zunehmenden Abbildungsfehler in Deiner Datenauswertung berücksichtigt hast.

Abgesehen von dieser Frage erscheint mir Deine Auswertung, ebenso wie die von Werner "blueplanet", im Hinblick auf die Praxis der Astrofotografie fragwürdig, weil Ihr mit unbewegten "Strichcodes" als Vorlagen arbeitet. Die gerasterte Abtastung durch eine Digitalkamera führt dabei zwangsläufig zu Moiré-Effekten (Aliasing), die in Euren Tests und Auswertungen voll zur Geltung kommen, die aber in der astronomischen Praxis infolge der ständigen Bewegung der optischen Abbildung gegenüber dem Chipraster der Kamera in erheblichem Umfang neutralisiert werden.

Edit: Schließlich bleibt in Euren Auswertungen auch der Einfluss des Bildschirmrasters auf die Abbildungsgüte unberücksichtigt, auf den ich zuvor anhand dieser Studie schon mehrfach hingewiesn hatte.

Aus den genannten Gründen erscheinen mir Eure Tests und Schlussfolgerungen für die astronomische Praxis in der Tat nur bedingt aussagekräftig.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo zusammen,

ich füge nocheinmal eine Grafik ein, aus der deutlicher wird, was das sampling aus der ursprünglichen Information macht.

Die Erklärung ist wie hier:
-Obere Reihe: Liniengitter um 30grad gegen Senkrechte nach links geneigt
-untere Reihe: Liniengitter senkrecht (parallel zur CCD-Pixel-Ausrichtung)

-linke Spalte: sampling 3 Pixel/Linienpaar (=1,5x Nyquist, Faktor 5,5x (550nm))
-mittlere Spalte: sampling 2 Pixel/Linienpaar (=1x Nyquist, Faktor 3,6x (550nm))
-rechte Spalte: sampling 1.5 Pixel/Linienpaar (=0,75x Nyquist, Faktor 2,7x (550nm))

bloß, dass unter den Bildern jeweils ein Ausschnitt des Ausgangsstrichgitters ist und darüber eben das Ergebnis nach dem samplen.

Ciao Werner
 

Anhänge

  • collage2-text-60.jpg
    collage2-text-60.jpg
    94,4 KB · Aufrufe: 2.238
Hallo Christian,

Wie wurde denn der Faktor 1.3 berechnet? 1.3 ist eigentlich (viel) zu wenig, wird hier aber tatsächlich wahrscheinlich genügen, da man davon ausgehen kann, dass Grün die einflussreichste Wellenlänge für die Detailauflösung war.

dieser Faktor stammt aus dem von Peter schon gepostetem Link.

http://www.gym-vaterstetten.de/faecher/astro/Fotografie/MondfotografieTutorial.htm

Am besten gleich dort nachlesen, es steht unter dem Punkt


@Werner

Entgegen anderslautenden Meinungen ist damit meine theoretische Voraussage
Original geschrieben von: blueplanet

Direkt bei der Maximalauflösung ist kein Kontrast mehr detektierbar. Insofern wurde 0,98 der Maximalauflösung (zufälligerweise Dawes-Limit) bei einer noch minimalen MTF als oberes Limit gewählt (laut Lit. ist diese Annahme gerechtfertigt).

Beim sampling dieser max. übertragenen Linienpaaranzahl wurde die Chipdiagonale angesetzt, um ein undersampling in Diagonalen-Richtung zu vermeiden (2x sqr2).

Als minimale Wellenlänge wurde 450nm gewählt, um auch bei RGB-Aufnahmen die volle Auflösung des Blaukanals zu nutzen.

Daraus folgt:
Mindest-sampling bzw. max. Pixelbreite = (Linienpaarbreite bei MTF=0, 450nm)/2,9
oder
Pixelbreite = N/6,2

D.h. z.B.
5,6um-Pixel -> f/34,7
3,75um-Pixel -> f/23,2

keineswegs "schwammig", sondern sogar sehr zutreffend!
Du liegst mit 6,2*P in einem Bereich der relativ nahe am Maximum liegt aber es ist nicht das absolute Maximum!
Du liegst hier nur deshalb recht nah dran weil es hier nur noch sehr kleine Unterschiede gibt und es kaum mehr eine Rolle spielt ob es nun 5, 6 oder 7*P sind.
Der Bereich ist und bleibt recht schwammig, das beweist sowohl mein als auch dein Test.

Dein Grundfehler ist dein digitales denken im Pixelraster.
Es ist aber nicht so das es Sprünge in der erreichbaren Auflösung gibt nach dem Motto 1P =33%, 2 P =66%, 3P = 100% und dazwischen bleibt die Auflösung unverändert und springt erst bei Erreichen des nächsten vollen Faktors schlagartig auf das nächst höhere Level.
Es gibt vielmehr eine analoge fließende Entwicklung bei der Auflösung die bei kleinen Faktoren durchaus annähernd in Relation zum Anstiegt des Faktors steht aber spätestens ab etwa 3,6 ist dann ein sehr viel langsamerer Auflösungsgewinn zu verzeichnen.
Ob es nun genau 3,6 ist oder eher 3 oder 4 sei mal dahingestellt jedenfalls gibt es einen Punkt ab dem nur noch ein sehr geringer Zugewinn an Auflösung zu verzeichnen ist.
In diesem Bereich befindest Du dich, hier jetzt zu sagen genau an diesem Punkt ist die Maximalauflösung erreicht ist schlicht pure Willkür.
Man wird akzeptieren müssen das es ein Bereich ist und kein exakter Punkt der sich da festmachen lässt, ob es einem nun passt oder nicht.
Wer das nicht wahr haben will macht sich was vor und verweigert sich der Realität.

Die fließende Entwicklung ist auch in deinem Test erkennbar.

2-Pixel/lp:
Die Diagonallinien werden nicht getrennt, das sampling ist unzureichend.

Irrtum, die Diagonallinien sind auch bei 2P erkennbar nur mit geringerem Kontrastunterschied
In Deiner Nachvergrößerung ist das nur weniger auffällig, da sieht man dann den Wald vor lauter Bäumen nicht.
Verkleinert man das Bild dann erkennt man die Diagonallinien auch bei 2P eindeutig!
Nur eben mit deutlich geringerem Kontrastunterschied.
Ab welchem Kontrastunterschied man die Linien nun als getrennt betrachtet ist Ansichtssache und das macht das eben sehr schwammig.
Es ist pure Willkür zu sagen ja exakt dieser Punkt ist es und kein anderer.

Grüße Gerd
 

Anhänge

  • b.jpg
    b.jpg
    8,6 KB · Aufrufe: 2.125
Zuletzt von einem Moderator bearbeitet:
Hallo Jan,

Umso mehr muss ich aber jetzt erneut die Frage stellen, inwieweit es Sinn macht, für diese Tests eine Fotooptik einzusetzen, deren Abbildungsleistung doch - wenn überhaupt - nur bei kleinen Öffnungen, d.h. großen Blendenzahlen, als beugungsbegrenzt betrachtet werden kann.

na ja man kann kleine Öffnungen auch bei kleinen Blendenzahlen erreichen wenn man kleine Brennweiten verwendet.

Beim Aufblenden nehmen ja die Bildfehler rapide zu, wodurch die Auflösung erkennbar schlechter wird, und nicht besser, wie Dein Ansatz es nahelegt.

Ja richtig Bildfehler nehmen dann rapide zu, das ich aber dennoch eine erheblich Steigerung der Auflösung durch das Aufblenden von 2,9 auf 18,75mm erreichen konnte beweist das mein Objektiv bei 2,9mm auf jeden Fall Beugungsbegrenzt sein muss.

Mir ist nicht ganz klar, auf welche Weise Du die mit der Öffnung zunehmenden Abbildungsfehler in Deiner Datenauswertung berücksichtigt hast.

Du vergisst das ich für die Ermittlung des in meinem Diagramm dargestellten Zusammenhangs immer mit konstanter Öffnung von 2,9mm gearbeitet habe.
Der Einfluss der Öffnung auf die Abbildungsgüte kann hier also ausgeschlossen werden.
Nicht aber der Einfluss des Öffnungsverhältnisses.
In diesem Punkt ist dein Einwand berechtigt.
Die Abbildungsqualität hängt von beidem ab sowohl vom Öffnungsverhältnis als auch von der Öffnung.
Ein Newton mit Kugelspiegel ist zb. bei 50mm Öffnung auch bei F6 deutlich besser als beugungsbegrenzt ( Strehl 0,85) ein Newton mit Kugelspiegel und 100mm Durchmesser ist bei F6 aber bereits sehr schlecht ( Strehl 0,52).

Ich habe nun aber mit winzigen 2,9mm Öffnung gearbeitet so das es nicht unwahrscheinlich ist das hier auch bei F6,3 eine einigermaßen brauchbare Qualität vorhanden ist.
Einen Nachweis kann ich aber nicht erbringen richtig.
Ich kann nur sagen das die Farbkorrektur bei 2,9mm F6,3 theoretisch der eines super APOs entsprächen müsste.

Abgesehen von dieser Frage erscheint mir Deine Auswertung, ebenso wie die von Werner "blueplanet", im Hinblick auf die Praxis der Astrofotografie fragwürdig, weil Ihr mit unbewegten "Strichcodes" als Vorlagen arbeitet. Die gerasterte Abtastung durch eine Digitalkamera führt dabei zwangsläufig zu Moiré-Effekten (Aliasing), die in Euren Tests und Auswertungen voll zur Geltung kommen, die aber in der astronomischen Praxis infolge der ständigen Bewegung der optischen Abbildung gegenüber dem Chipraster der Kamera in erheblichem Umfang neutralisiert werden.

Ein berechtigtet Einwand.
Allerdings liege ich doch mit meinem Ergebnis gar nicht so weit von deiner Erfahrung entfernt.
Der Punkt ab dem nur noch ein marginaler Auflösungsgewinn erreicht werden kann liegt bei meiner Bayer- Matrix bei etwa 3,6*N.
Wenn wir den von Peter eingebrachten Faktor von 1,3 berücksichtigen kämen 2,77*N raus was ja exakt deiner Erfahrung entspricht.
Damit hätte ich den Beweis erbracht das du völlig richtig liegst mit deinem Faktor.

Zum Abschluss noch mal ein kleines Rechenbeispiel zur Aufnahme mit 18,75mm Öffnung und 2,9mm Öffnung bei jeweils 105mm Brennweite.

Die Öffnung hat sich durch das aufblenden um Faktor 18,75/2,9 = 6,47 erhöht.
Die Öffnungszahl bei konstanter Brennweite damit um eben diesen Faktor verringert also 36/6,47= 5,6
Damit hat sich auch das Verhältnis N/Pixel um diese 6,47 verändert also 9,2/6,47 = 1,42
Leider hab ich die Sampling Auflösung erst ab 1,6*N erfasst aber wenn man die Kurve in meinem Diagramm extrapoliert kommt man bei 1,42*N so etwa auf 0,4

Die Auflösung wegen der größeren Öffnung hätte also um 6,47 steigen müssen
Die wegen dem ungünstigerem Sampling auf etwa 0,4 fallen müssen.
Der resultierende Faktor wäre also 6,47*0,4 = 2,59
Ich sage also einen Auflösungsgewinn von 2,59 durch das Aufblenden meines Objektives bei 105mm Brennweite von F36 auf F5,6 an meiner Nikon mit ihren 3,9 µm Pixeln voraus.
Nun messen wir doch mal am Siemensstern nach
Durchmesser Auflösungsgrenze bei 105mm Brennweite und F36 = 59mm
Durchmesser Auflösungsgrenze bei 105mm Brennweite und F5,6 = 23mm

Das Auflösungsvermögen hat sich damit um 59/23 = 2,56 verändert.
Dieses Beispiel zeigt noch mal sehr schön die Zusammenhänge und bestätigt meine Herangehensweise.

Grüße Gerd
 
Hallo Werner,

im Grunde sehen wir hier doch eine von der Sampling-Auflösung abhängige (und leider mit C4-Symmetrie anisotrope) Faltung, die sich durch eine MTF beschreiben ließe. Bei 3*p kann man zwar sicher leicht die Frequenz des Ursprungsbildes herauslesen, aber der Kontrast (Amplitude) ist nicht annähernd erhalten. Ganz analog zum Einfluss der Apertur im Grenzbereich.

ja genauso sehe ich das auch.

Edit

Seh gerade das ich hier P statt ´N geschrieben hatte.

Du liegst mit 6,2*P in einem Bereich der relativ nahe am Maximum liegt aber es ist nicht das absolute Maximum!
Du liegst hier nur deshalb recht nah dran weil es hier nur noch sehr kleine Unterschiede gibt und es kaum mehr eine Rolle spielt ob es nun 5, 6 oder 7*P sind.

Es muss natürlich heißen.

Du liegst mit 6,2*N in einem Bereich der relativ nahe am Maximum liegt aber es ist nicht das absolute Maximum!
Du liegst hier nur deshalb recht nah dran weil es hier nur noch sehr kleine Unterschiede gibt und es kaum mehr eine Rolle spielt ob es nun 5, 6 oder 7*N sind.

Das kommt davon wenn man mit verschiedenen Bezugsgrößen arbeitet.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
Hallo Werner,

wenn wir mal die von mir gefundene Kurve für den Zusammenhang von Auflösungsvermögen und Sampling als N*Pixel betrachten dann kann man eine gewisse Ähnlichkeit zur Energieverteilung im Beugungsscheibchen nicht von der Hand weisen.

Grüße Gerd
 

Anhänge

  • EE_.jpg
    EE_.jpg
    79,9 KB · Aufrufe: 2.095
Hallo,

da immer wieder behauptet wird, dass man zur Kameraankopplung noch einen Faktor von Wurzel 2 aufschlagen müsse, da die quadratischen Pixel in der Diagonalen eben um diesen Faktor Wurzel 2 größer sind, habe ich mal meine im 45° Winkel aufgenommenen Testbilder zurückgedreht und zusammen mit den 0° Winkel Testbildern zu einem animiertem Vergleichs-GIF verarbeitet. Dabei ist genau das Gegenteil herausgekommen! Diagonal ist die Auflösung sogar deutlich erhöht. Das gleiche Prinzip wird auch beim Super-CCD-Sensor-Design verwenden, also ein um 45° gedrehtes Pixelraster.

Jeweils der Frame mit dem um 45° gedrehtem Schriftzug "3,56x" ist das urprünglich im 45° Winkel aufgenommene Testbild:
Link zur Grafik: http://fs2.directupload.net/images/150220/zcdnr2yy.gif

Link zur Grafik: http://fs2.directupload.net/images/150220/cvkwqyip.gif

Volle Größe der Bilder:
http://fs2.directupload.net/images/150220/zcdnr2yy.gif
http://fs2.directupload.net/images/150220/cvkwqyip.gif

Gruß Peter
 
Hallo Werner

Zitat von Ifrit:
richtungsabhängig genau. ;) Unschön wenn man googeln muss, obwohl das deutsche Wort sofort und ohne Umschweife verständlich ist.


Zitat von Ifrit:
im Grunde sehen wir hier doch eine von der Sampling-Auflösung abhängige (und leider mit C4-Symmetrie anisotrope) Faltung, die sich durch eine MTF beschreiben ließe. Bei 3*p kann man zwar sicher leicht die Frequenz des Ursprungsbildes herauslesen, aber der Kontrast (Amplitude) ist nicht annähernd erhalten. Ganz analog zum Einfluss der Apertur im Grenzbereich.
Häääääää.... ??? :smiley64: Nun nochmal auf Deutsch. ;) Diese Aussage verdient wirklich Beachtung. Sie würde in einem nerdig nerdigen Wettbewerb Preisauschreiben für unverständliche Sätze sicherlich einen der vordersten Plätze belegen. :/




@all

Diese ganzen theoretischen Überlegungen sind ja gut und schön. Nur muss der Endanwender dieser gut gemeinten Tipps sich dann trotzdem mit seiner eigenen Bildverarbeitung herumschlagen. So sehe ich bei Jan's Bildern aktuell nicht, dass er bildverarbeitungstechnisch einen Vorteil davon hätte, diese knappe Kameraanbindung zu nutzen. Dagegen sehe ich aber anderswo hervorragende Resultate, die mit moderaten bis hohen Brennweiten gewonnen werden. Für mich macht es deshalb nicht zwangsläufig Sinn, in der Praxis tatsächlich mit N = 3*P zu arbeiten. Dadurch handelt man sich unnötige Schwierigkeiten in der EBV ein. Vor allem am Planeten arbeitet es sich mit mehr Brennweite deutlich leichter. Für mich wiegt dieser Vorteil schwerer als der Nachteil der nötigen höheren Belichtungszeit und des höheren Gains. Dies wirkt sich nicht so negativ aus, wie ein zu winziges Jupiterbild im Video, trotz Drizzeln.



Viele Grüße,
Christian
 
Hallo zusammen,

@Gerd:
Zitat von Gerd:
Du liegst mit 6,2*P in einem Bereich der relativ nahe am Maximum liegt aber es ist nicht das absolute Maximum!
Du liegst hier nur deshalb recht nah dran weil es hier nur noch sehr kleine Unterschiede gibt und es kaum mehr eine Rolle spielt ob es nun 5, 6 oder 7*P sind.
Der Bereich ist und bleibt recht schwammig, das beweist sowohl mein als auch dein Test.

es ging doch darum, möglichst alle zur Verfügung gestellte Information aufzunehmen, oder?

Nach der MTF-Betrachtung gibt es ein eindeutiges Limit für die Teleskopoptik (MTF=0).
Auch die maximale Übetragungsfrequenz eines Sensors ist kein Geheimnis (wobei die MTF meist noch bei 0,3-0,5 liegt).
Setzt man das Limit der Teleskopoptik mit der maximalen Übetragungsfrequenz des Sensors gleich, dann sollten im Prinzip alle Informationen aufgezeichnet worden sein und sich auch vollständig rekonstruieren lassen (abgesehen von ein paar wirklich nicht relevanten Randdetails).
Dieser Fall ist eben bei einem Ankoppelfaktor von um 6,3x erreicht (entscheidende Randbedingungen: höchste übertragene Frequenz und Pixeldiagonale).

Insofern ist das keineswegs so schwammig, wie Du das immer darzustellen versuchst.

Dieser Ankoppelfaktor wird z.B., wie ich schon mehrmals erwähnt hab', bei dem professionellen DOT-Projekt verwendet und bestätigt damit die gemachten Angaben.
Wenn man sich sinnvolle Gedanken bzgl. Ankopplung macht, landet man halt früher oder später bei dieser Größenordnung.
Apropos: hast Du Dir das Projekt schon einmal angeschaut oder warst Du noch nicht fähig meine Links nachzuverfolgen oder eine Suchmaschine zu bedienen?

Es gibt übrigens weitere gute Gründe den Faktor bei der max. übertragenen Frequenz des Teleskop anzusetzen. Nicht zuletzt vermeidet man damit nahezu vollständig die Alias-Problematik.

Zitat von Gerd:
Dein Grundfehler ist dein digitales denken im Pixelraster.
Es ist aber nicht so das es Sprünge in der erreichbaren Auflösung gibt nach dem Motto 1P =33%, 2 P =66%, 3P = 100% und dazwischen bleibt die Auflösung unverändert und springt erst bei Erreichen des nächsten vollen Faktors schlagartig auf das nächst höhere Level.

Das ist eine Unterstellung Deinerseits! Ich hab' das nirgends so behauptet!!! Unterlasse bitte solche Kommentare!

Zitat von Gerd:
Es gibt vielmehr eine analoge fließende Entwicklung bei der Auflösung die bei kleinen Faktoren durchaus annähernd in Relation zum Anstiegt des Faktors steht aber spätestens ab etwa 3,6 ist dann ein sehr viel langsamerer Auflösungsgewinn zu verzeichnen.
Ob es nun genau 3,6 ist oder eher 3 oder 4 sei mal dahingestellt jedenfalls gibt es einen Punkt ab dem nur noch ein sehr geringer Zugewinn an Auflösung zu verzeichnen ist.

Da braucht es keine langen Erläuterungen: aus der MTF des Scopes läßt sich leicht entnehmen, welchen Prozentsatz der Maximalfrequenz man bei welchem sampling aufzeichnen kann.

Zitat von Gerd:
In diesem Bereich befindest Du dich, hier jetzt zu sagen genau an diesem Punkt ist die Maximalauflösung erreicht ist schlicht pure Willkür.

Der Faktor um 6,3x ist, wie oben schon ausgeführt, keineswegs willkürlich gewählt!
Um diesen Punkt herum hat man gerade das minimale sampling erfüllt, um theoretisch alle Informationen für eine Rekonstruktion aufzuzeichnen.

Wählt man einen kleineren Faktor, schneidet man auf alle Fälle die höherfrequenten Informationen ab und hat mit der Alias-Problematik zu kämpfen.
Man verliert bei einer geringeren Ankoppelung nicht nur Information, sondern handelt sich auch Fehlanteile ein. Es geht also nicht bloß um die letzten Prozent Information, sondern auch um die Vermeidung von Fehlinformation/Artefakten.

Diesen Punkte läßt Du allerdings in Deinen Betrachtungen unter den Tisch fallen.

Zitat von Gerd:
Irrtum, die Diagonallinien sind auch bei 2P erkennbar nur mit geringerem Kontrastunterschied
In Deiner Nachvergrößerung ist das nur weniger auffällig, da sieht man dann den Wald vor lauter Bäumen nicht.
Verkleinert man das Bild dann erkennt man die Diagonallinien auch bei 2P eindeutig!

Das mit dem Irrtum gebe ich zurück!
Es geht nicht darum, die Diagonallinien mit irgendwelchen Mitteln erkennbar zu machen, sondern darum zu erkennen, dass das in Diagonalrichtung vorliegende undersampling (die Pixelkanten der Linien treffen aufeinander) die übertragenen Informationen verändert und genau das geht aus den Pics hervor!

BTW.: Wenn Du schon meine pics verkleinerst, hättest Du fairerweise KEINEN interpolierenden und damit informationsverändernden Algorithmus verwenden dürfen! In der Verkleinerung werden damit die Diagonalen zwar hervorgehoben, aber die zugrundelegende Problematik unterdrückt und damit nicht mehr erkennbar.

Ich hab' eine fairere Verkleinerung ohne Informationsveränderung (nur ganzzahlige Pixelreduktion) angefügt. Jetzt kann sich jeder selbst ein Bild machen, ob Deine Aussagen stimmen.


Ich fasse zusammen: der Ankoppelfaktor von ca. 6x ist nicht willkürlich gewählt, sondern im Hinblick darauf, möglichst alle von dem Teleskop zur Verfügung gestellte Information auch aufzuzeichnen. Beispiele aus der professionellen Praxis bestätigen das.


@Werner (Ifrit):

im Grunde sehen wir hier doch eine von der Sampling-Auflösung abhängige (und leider mit C4-Symmetrie anisotrope) Faltung, die sich durch eine MTF beschreiben ließe. Bei 3*p kann man zwar sicher leicht die Frequenz des Ursprungsbildes herauslesen, aber der Kontrast (Amplitude) ist nicht annähernd erhalten. Ganz analog zum Einfluss der Apertur im Grenzbereich.

Oberhalb seiner Grenzfrequenz kann der Sensor keine Information mehr übertragen. Bei einer zu geringen Ankopplung (z.B. 3xp) fehlen dann diese Frequenzanteile und zusätzlich kommt die Alias-Problematik hinzu.
Es ist also, nicht bloß der Kontrast.

Ciao Werner
 

Anhänge

  • collage-text-70-verkleinert.jpg
    collage-text-70-verkleinert.jpg
    6,8 KB · Aufrufe: 2.028
Hallo Werner,

Zitat von Ifrit:
Zitat von blueplanet:
Oberhalb seiner Grenzfrequenz kann der Sensor keine Information mehr übertragen. Bei einer zu geringen Ankopplung (z.B. 3xp) fehlen dann diese Frequenzanteile und zusätzlich kommt die Alias-Problematik hinzu.
Es ist also, nicht bloß der Kontrast.
Ist mir schon klar. Ich wollte aber deutlich machen, dass selbst bei Anbindungen die die Maximalfrequenz bereits abbilden immer noch Kontrast verloren geht - was man an Deinen Bildern sehr schön sieht.

Das ist korrekt. Allerdings hab' ich mir nicht die Mühe gemacht meine Pics daraufhin zu normieren, um das herauszuarbeiten.

Ciao Werner
 
Hi Werner
Zitat von Ifrit:
erstens ist Googeln nicht zuviel verlangt, zweitens stellt das Fachwort "anisotrop" mit Absicht den Gegensatz zu jener Isotropie heraus, die dem Beugungsscheibchen eigen ist.
Ja, es ging mir nur darum, dass man in einem solchen Forum ruhig solche Begriffe erläutern kann. Meiner Ansicht nach verkompliziert das nur unnötig.

Zitat von Ifrit:
Der zweite von Dir zitierte Satz ist für Leute geschrieben, die ihn aus dem Stand verstehen oder solche, die sich ein wenig Mühe geben, bis sie es tun. Es liegt an Dir, ob Du dazu gehören willst. Bei einem Text, den ich schreibe, treffe ich die Abwägung zwischen Genauigkeit, Leichtverständlichkeit und Knappheit gerne selbst.
Naja selbst dafür ist dieser Satz abgehoben. Gut, einige wenige mögen ihn tatsächlich sofort verstehen, für den weitaus größeren Rest bleibt er unverständlich. Wenn Du es dem Leser so schwer machen willst, nur damit Deine Aussagen besonders schlau klingen, gut, dann ist das eben so. Aber auch hier gilt, dass eine etwas ausführlichere Erklärung für die Allgemeinheit eher angebracht wäre. So bekommst Du darauf erst entsprechende Antworten. Die allermeisten werden eine solche Aussage zur Kenntnis nehmen, sich aber genau deshalb nicht die Mühe machen, sie komplett verstehen zu wollen, weil schon der Autor sich nicht die Mühe gemacht hat, leicht verstanden werden zu wollen.

Also nichts für ungut. Ich find's eben einfach etwas abgehoben. ;)

Außerdem hattest Du ebenso die Möglichkeit, es als Spaß aufzufassen und mit Humor zu nehmen. ;)





In diesem Zusammenhang kann ich folgendes Buch empfehlen. Das hilft denjenigen, die zu knapp mit zu vielen Fremdwörtern schreiben, aber auch denjenigen, die sich in komplizierten Satzkonstrukten verlieren. Da haben wir hier ja auch Kandidaten. Deutsch fürs Leben: Was die Schule zu lehren vergaß








Zurück zum Thema:

Wer von den Mitschreibern hat eigentlich wirklich Erfahrung in der hochauflösenden Planeten und Mond Fotografie?

Nur Jan und Ich?





Gruß,
Christian
 
Hallo Werner (Ifrit),

Ein wenig wundert mich die Kurve aber bei genauerem Hinsehen: die sollte doch monoton steigen, denke ich - aber bei ca. 85% scheint sie kurz zu fallen?!

ja stimmt, das ist auf ein unzureichende Auflösung bei der FFT Analyse zurückzuführen auf der diese EE Kurve basiert.
Das ist die Standarteinstellung in Oslo, wohl eher für lahme PCs.
In hoher Auflösung kommt man dann zu dieser EE Kurve und dann passt es.

@Werner (blueplanet)

Insofern ist das keineswegs so schwammig, wie Du das immer darzustellen versuchst.

Es ist und bleibt eine kontinuierliche Entwicklung die allmählich und ab etwa 3,6*N nur noch sehr langsam auf 100% zuläuft, in finde den Vergleich mit der EE kurve sehr treffend.
Du bist mit N*6,2 recht nah dran aber eben nicht exakt 100% und du bist auch mit 5*N schon sehr gut und mit 3,6*N verpasst du auch nicht sonderlich viel.

Und da sind wir beim Stichwort, du willst auf gar keinen Fall Kompromisse machen und meinst etwas zu verpassen wenn du nicht deine 100% bekommst, willst dir aber nicht eingestehen das es auch bei 6,2 keine 100% sind.
Selbstverständlich der Unterschied zum Ideal ist bei N*6,2 in der Praxis völlig irrelevant aber dir scheint es hier ja rein ums Prinzip zu gehen und nicht um Praxisrelevanz den dann würdest du auch akzeptieren das bei 5 oder eben 3,6*N kein wirklich Praxisrelevanter Unterschied mehr vorhanden ist.

Erst unterhalb von 3,6*N fällt die Auflösung spürbar ab und es kommt zum Praxisrelevantem Auflösungsverlust, daher sind es eben die 3,6*N die den vernünftigsten Kompromiss darstellen.
Also entweder du orientierst dich an der Praxisrelevanz und gestehst ein das 3,6 eine gute Hausnummer ist oder du bestehst aufs Prinzip aber dann müsstest Du eingestehen das auch bei 6,2 noch keine 100% erreicht werden.

Dieser Ankoppelfaktor wird z.B., wie ich schon mehrmals erwähnt hab', bei dem professionellen DOT-Projekt verwendet und bestätigt damit die gemachten Angaben.

Es werden bei den Profis sehr unterschiedliche Faktoren verwendet, einige liegen deutlich unter deinen 6,2 und andere wesentlich darüber.
Das bestätigt wohl eher meine Auffassung das es eine recht schwammige Geschichte ist.

Du musst jetzt nicht immer nur das eine Projekt vors Loch schieben das dir gerade in den Kram passt.
Nur weil man zufällig beim DOT etwas um die 6 gewählt hat heißt das noch lange nicht das dieser in der Wissenschaft allgemeiner Konsens wäre.

Der Faktor um 6,3x ist, wie oben schon ausgeführt, keineswegs willkürlich gewählt!
Um diesen Punkt herum hat man gerade das minimale sampling erfüllt, um theoretisch alle Informationen für eine Rekonstruktion aufzuzeichnen.
Aber selbstverständlich ist er das weil auch die Ausgansdaten auf denen er ja letztlich beruht willkürlich gewählt wurden.

Man verliert bei einer geringeren Ankoppelung nicht nur Information, sondern handelt sich auch Fehlanteile ein. Es geht also nicht bloß um die letzten Prozent Information, sondern auch um die Vermeidung von Fehlinformation/Artefakten.
Hier wäre eben auch mal wieder Praxisrelevanz gefragt, weder bei den Informationen noch bei den Artefakten zeigt sich ein wirklich Praxisrelevanter Unterschied zwischen 3,6 und 6,2.
Dein Einwand beruht auf reiner Prinzipienreiterei.

Diesen Punkte läßt Du allerdings in Deinen Betrachtungen unter den Tisch fallen.

Mit recht denn er ist im hier diskutierten Fall Planetenfotografie bei 3,6 oder 6,2*N nicht Praxisrelevant.

Das mit dem Irrtum gebe ich zurück!
Es geht nicht darum, die Diagonallinien mit irgendwelchen Mitteln erkennbar zu machen, sondern darum zu erkennen,

Ach nein, es geht also nicht darum Details zu erkennen bei der Planetenfotografie?
Na ja mag sein das du da andere Ziele hast, ist ja ein vielseitiges Hobby, ich jedenfalls möchte Planetendetails sehen und nutze da auch alle Möglichkeiten um diese sichtbar zu machen.
Bei 2*P ist die Detailinformation für die Diagonallinien in deinem Bild bereits vorhanden das ist Fakt und man kann sie sichtbarmachen das habe ich gezeigt und mehr braucht es schlicht und ergreifend nicht.

Wenn Du schon meine pics verkleinerst, hättest Du fairerweise KEINEN interpolierenden und damit informationsverändernden Algorithmus verwenden dürfen! In der Verkleinerung werden damit die Diagonalen zwar hervorgehoben, aber die zugrundelegende Problematik unterdrückt und damit nicht mehr erkennbar.
Deine Problematik ist künstlich erzeugt und sie lässt sich wie gezeigt mit einem interpolierenden Algorithmus problemlos vermeiden.
Nichts anderes macht auch unser Gehirn.

Fair ist es die Informationen aus dem Bild zu holen die auch da drin enthalten sind und nicht sie mutwillig zu unterdrücken um einen höheren Faktor als wirklich notwendig vorzugaukeln.

Was meinst du was der Sinn und Zweck der ganzen Filter ist die bei der EBV von Planetenbildern ja sehr reichlich und in sehr intensiver Form angewendet werden.
Ja richtig aus dem unscharfen Summenbild all die Informationen rauszuholen die da drin enthalten sind.

Ich fasse zusammen: der Ankoppelfaktor von ca. 6x ist nicht willkürlich gewählt, sondern im Hinblick darauf, möglichst alle von dem Teleskop zur Verfügung gestellte Information auch aufzuzeichnen. Beispiele aus der professionellen Praxis bestätigen das.

Ich korrigiere.
Die 6x sind schon in der Herleitung allein deshalb willkürlich weil sie auf willkürlich festgelegten Ausgansparametern basieren.
Im Hinblick auf die erfassbaren Details sind sie es weil es eine fließende Entwicklung gibt die oberhalb von 3,6 nur sehr langsam gegen 100% läuft und es willkürlich ist zu sagen so bei 99 oder so bei 98% oder welchem Prozentsatz auch immer wäre nun der entscheidende Punkt.
Beispiele von den Profis gibt es mit sehr unterschiedlichen Faktoren was bestätigt das es eben eine schwammige Sache ist bei der es keinen Stein der Weisen gibt, weder bei 6,2 noch sonst wo.

Grüße Gerd
 

Anhänge

  • EE1060.jpg
    EE1060.jpg
    77,7 KB · Aufrufe: 2.584
Zuletzt von einem Moderator bearbeitet:
Hallo Gerd
Zitat von Gerd_Duering:
Selbstverständlich der Unterschied zum Ideal ist bei N*6,2 in der Praxis völlig irrelevant aber dir scheint es hier ja rein ums Prinzip zu gehen und nicht um Praxisrelevanz den dann würdest du auch akzeptieren das bei 5 oder eben 3,6*N kein wirklich Praxisrelevanter Unterschied mehr vorhanden ist.

Erst unterhalb von 3,6*N fällt die Auflösung spürbar ab und es kommt zum Praxisrelevantem Auflösungsverlust, daher sind es eben die 3,6*N die den vernünftigsten Kompromiss darstellen.
Also entweder du orientierst dich an der Praxisrelevanz und gestehst ein das 3,6 eine gute Hausnummer ist oder du bestehst aufs Prinzip aber dann müsstest Du eingestehen das auch bei 6,2 noch keine 100% erreicht werden.
Du sprichst hier von Praxisrelevanz. Ja hast Du denn schon mal eine RGB-Planetenaufnahme vom Jupiter mit 3 bis 3.6*P versucht und diese dann auch entsprechend zu einem Bild verarbeitet? Ist es Dir gelungen, naha ans Optimum zu gelangen? Das ist nämlich nicht so einfach und unproblematisch, da dann Probleme mit einem Pixelraster-Muster auftreten, womit das Schärfen gestört wird. Auch kann man das Bildrauschen nicht so gut vom Nutzsignal trennen. Das führt zumeist zu einem schlechteren Ergebnis als es möglich wäre. Hier kommen wir also tatsächlich zur Praxisrelevanz! Am Jupiter würde ich schon so 5*P bis 6*P und mehr empfehlen. Aus Deinem Versuch kommt zwar heraus, dass man mit ca. 3*P schon gut liegt, aber das sagt noch lange nichts über die tatsächliche Praxis am Teleskop und am Computer in der Bildverarbeitung aus.



Gruß,
Christian
 
Hallo Christian,

Ja hast Du denn schon mal eine RGB-Planetenaufnahme vom Jupiter mit 3 bis 3.6*P versucht und diese dann auch entsprechend zu einem Bild verarbeitet? Ist es Dir gelungen, naha ans Optimum zu gelangen? Das ist nämlich nicht so einfach und unproblematisch, da dann Probleme mit einem Pixelraster-Muster auftreten, womit das Schärfen gestört wird. Auch kann man das Bildrauschen nicht so gut vom Nutzsignal trennen.

keine RGB Aufnahmen und schon gar keine IR-RGB Aufnahmen sondern mir Farbkamera also Bayer-Matrix.
Ich weiß das ist nicht das Optimale aber es ist bedeutend weniger Aufwand sowohl bei der Aufnahme selbst als auch bei der anschließenden EBV.
Ich mach das aus purem Spaß und nicht zu wissenschaftlichen Zwecken oder als Hochleistungssport um das allerletzte Quäntchen aus den Aufnahmen rauszuholen.

Dennoch hab ich durchaus bisschen Erfahrung mit der Planetenfotografie zumindest was Farbaufnahmen betrifft und denke da ganz gut unterwegs zu sein.
Allerdings mit vergleichsweise bescheidener Öffnung 80mm ED oder 150mm Newton.
Was Größeres mag ich nicht Parallaktisch montieren. Na ja ein SCT wäre auch in 8“ ne Option aber ist bisher noch nicht verwirklicht worden.
Die Detailfülle von Jans Bildern kann ich daher nicht erreichen.

Was das Bildrauschen anbelangt so hab ich eben gerade da die Erfahrung gemacht das es besser ist es mit der Anbindung nicht zu übertreiben.
Also genau das Gegenteil von deiner Erfahrung.
Es sei aber angemerkt das ich keinen CCD sondern einen CMOS habe der von Haus aus mehr rauschen zeigen dürfte und das bei der Bayer-Matrix pro Farbkanal ja nur ein Teil der Pixelfläche zur Verfügung steht so das hier prinzipiell eine geringere Lichtempfindlichkeit vorhanden ist.

Das heißt meine Rohbilder zeigen bei übertriebener Anbindung sehr viel rauschen.
Natürlich lässt sich das dann im Summenbild bei entsprechender Anzahl von Bildern stark mindern aber alles hat seine Grenzen.
In jedem Fall ist es dem Ergebnis absolut nicht dienlich wenn ich es da übertreibe mit der Anbindung.

Hier kommen wir also tatsächlich zur Praxisrelevanz! Am Jupiter würde ich schon so 5*P bis 6*P und mehr empfehlen. Aus Deinem Versuch kommt zwar heraus, dass man mit ca. 3*P schon gut liegt, aber das sagt noch lange nichts über die tatsächliche Praxis am Teleskop und am Computer in der Bildverarbeitung aus.

Ja klar Praxis Erfahrungen sind hilfreich aber man muss dann auch klar sagen warum du eher bei 5 bis 6*N landest.
Nicht wegen der Auflösung sondern wegen praktischer Gründe die sich aus der Bildbearbeitung ergeben und die ganz offensichtlich auch sehr von der verwendeten Kamera sprich deren Rauschverhalten abhängig sind wie unsere völlig gegensätzlichen Erfahrungen beweisen.

Grüße Gerd
 
Hallo Gerd,

es ist schon amüsant, was da jetzt so alles kommt ...

Zitat von Gerd_Duering:
Insofern ist das keineswegs so schwammig, wie Du das immer darzustellen versuchst.
Du bist mit N*6,2 recht nah dran aber eben nicht exakt 100% und du bist auch mit 5*N schon sehr gut und mit 3,6*N verpasst du auch nicht sonderlich viel.

Hab' ich irgendwas von exakt 100% geschrieben? Ich hatte immer geschrieben: wenn man an der Aufzeichung möglichst allen Details interessiert ist, sollte man sich an dem Faktor 6x ORIENTIEREN!!!
Bzgl. undersampling darf ich Dich nocheinmal auf die Alias-/Artefaktproblematik hinweisen!

Zitat von Gerd_Duering:
Und da sind wir beim Stichwort, du willst auf gar keinen Fall Kompromisse machen und meinst etwas zu verpassen wenn du nicht deine 100% bekommst, willst dir aber nicht eingestehen das es auch bei 6,2 keine 100% sind.

Wieder einmal versuchst Du mir etwas zu unterstellen, das ich so nicht geschrieben hab'! Bitte unterlasse solche Versuche!

Ich wiederhole das zum ich weis nicht wievielten mal: ich ORIENTIERE mich mit meiner Auslegung an der Teleskop-MTF-Kurve (Blaukanal) und wähle die Cam-Ankoppelparameter so, dass die maximal von dem Teleskop übertragene Frequenz gerade mit der maximalen Grenzfrequenz des CCD-Chips (Diagonalrichtung) der Cam übereinstimmt.
Da kommt halt dann ein Faktor von um die 6x heraus. Das ist ein optimaler Kompromis! Kein exzessives Oversampling, aber eben auch kein undersampling mir allen negativen Folgen, die Du bisher einfach nicht einsehen willst.

Warum also nicht bei dieser optimalen Ankopplung arbeiten? Warum Detailverlust, Artefakte und erhöhte Anforderung an die Bildverarbeitung riskieren, wenn man diese Probleme mit einem größeren Ankoppelfaktor leicht umgehen kann?
DAS nenn' ich Praxisrelevanz!
Mit meiner alten TouCam hatte ich selbst bei f/40 keine sonderlichen Probleme und die anschließende EBV war selbst mit dem für heutige Verhältnisse einfachen Giotto schnell und ohne Klimmzüge erledigt.

Zitat von Gerd_Duering:
Selbstverständlich der Unterschied zum Ideal ist bei N*6,2 in der Praxis völlig irrelevant aber dir scheint es hier ja rein ums Prinzip zu gehen und nicht um Praxisrelevanz den dann würdest du auch akzeptieren das bei 5 oder eben 3,6*N kein wirklich Praxisrelevanter Unterschied mehr vorhanden ist.

Kann es sein, dass Dir in der Beziehung einfach die Praxis abgeht, um abschätzen zu können, was WIRKLICH praxisrelevant ist?
Der Eindruck drängt sich mir auf ...

Zitat von Gerd_Duering:
Dieser Ankoppelfaktor wird z.B., wie ich schon mehrmals erwähnt hab', bei dem professionellen DOT-Projekt verwendet und bestätigt damit die gemachten Angaben.

Es werden bei den Profis sehr unterschiedliche Faktoren verwendet, einige liegen deutlich unter deinen 6,2 und andere wesentlich darüber.
Das bestätigt wohl eher meine Auffassung das es eine recht schwammige Geschichte ist.

Mit Profis meine ich Profis und nicht Amateure. Im allgemeinen kennen sich Profis (hier die Wissenschaftler der Uni Utrecht) auf ihrem Gebiet besser aus als Amateure und ich sehe keinen Grund, warum man sich nicht daran orientieren sollte.
Gerade dieses Projekt läßt sich beispielhaft auf unsere Anwendungen übertragen.

Zitat von Gerd_Duering:
Du musst jetzt nicht immer nur das eine Projekt vors Loch schieben das dir gerade in den Kram passt.

DOT scheint Dir wohl nicht zu gefallen? Passt wohl nicht, wie Du so schön sagst, in Deinen Kram?

Lies' Dir doch mal ganz entspannt ein paar der papers durch. Dann erkennst Du vielleicht (?) all die Parallelen.
Es ist ein Beispielsystem dafür, wie die Ankoppelung unter optimalen Bedingungen für hochauflösende Aufnahmen aussieht.
Ich sehe keinen Grund, warum man sich unter guten Bedingungen nicht auch daran orientieren sollte.

Aber von Dir gab's hierzu ja leider noch keinen vernünftigen Kommentar ...

Zitat von Gerd_Duering:
Nur weil man zufällig beim DOT etwas um die 6 gewählt...

Zufällig? Jetzt muss ich aber lachen! Das zeigt mir nur, dass Du Dich mit diesem Projekt bisher überhaupt nicht auseinandergesetzt hast!

Glaubst Du ernsthaft, dass für ein derartiges Projekt eine "zufällige" Ankoppelung gewählt wurde?

Das optische System wurde genau darauf ausgelegt, an der theoretischen Auflösungsgrenze Aufnahmen zu machen.
Wegen der engbandigen Filterung konnte man aber auch keine Photonen verschenken. Deswegen musste die Ankoppelung möglichst optimal erfolgen.

Na, kommt Dir das bekannt vor? Fast dieselbe Problematik haben wir bei unseren Planetenaufnahmen!
Und, wie ist die Ankoppelung bei dem DOT? Die f/44,4-Optik mit 6,7um-Pixel-Cam ergibt sogar Faktor 6,6!

Dann das ganze mal nach meiner "Theorie" durchgerechnet ...
Max. Linienauflösung des Scopes (f/44,4, 430nm, MTF=0) 52,4 lp/mm = 19,1 um/lp.
Die Cam muss dieses Linienpaar mit mindestens 2 Pixeldiagonalen samplen. D.h. Pixelbreite=(19,1 um)/(2xsqr(2))=6,75um!
Das entspricht also fast genau der real eingesetzten Pixelbreite in der verwendeten Cam.
Also können die Überlegungen und Berechnungen wohl nicht ganz falsch sein!

Außerdem vermeidet diese Ankopplung (max. Übertragungsfrequenz der Cam (Sensorgrenzfrequenz (f_N)) fällt mit der max. Linienauflösung des Scopes zusammen) die Alias-Problematik.

Aber Du bestehst ja darauf,dass der Faktor absolut willkürlich ist ...

Der Faktor um 6,3x ist, wie oben schon ausgeführt, keineswegs willkürlich gewählt!
Um diesen Punkt herum hat man gerade das minimale sampling erfüllt, um theoretisch alle Informationen für eine Rekonstruktion aufzuzeichnen.
Aber selbstverständlich ist er das weil auch die Ausgansdaten auf denen er ja letztlich beruht willkürlich gewählt wurden.

Die Willkürlichkeit mag ja Vielleicht für Deine Ausgangsdaten gelten (Wellenlange: 550nm, Pixelbreite).
Meine dagegen orientieren an der maximal zu erfassenden Information. Konsequenterweise wurden demnach auch die Maxima bzgl. Auflösung von Teleskop (450nm), CCD (f_N) und des samplings (Pixeldiagonale) gewählt.
Das ist eine konsequente Auslegung und keine willkürliche Festsetzung auf mittlere Werte wie in Deinem Fall.

Zitat von Gerd_Duering:
Man verliert bei einer geringeren Ankoppelung nicht nur Information, sondern handelt sich auch Fehlanteile ein. Es geht also nicht bloß um die letzten Prozent Information, sondern auch um die Vermeidung von Fehlinformation/Artefakten.
Hier wäre eben auch mal wieder Praxisrelevanz gefragt, weder bei den Informationen noch bei den Artefakten zeigt sich ein wirklich Praxisrelevanter Unterschied zwischen 3,6 und 6,2.
Dein Einwand beruht auf reiner Prinzipienreiterei.

Erstens: Du versuchst diesen Einwand einfach mit einer unbelegten Behauptung beiseite zu schieben! Wo ist der Beweis, das das auch stimmt?
Dabei kannst Du Dir leicht selbst ausrechnen, dass im Blaukanal bei Deiner Ankoppelung schon ein undersampling vorliegt ...
Zweitens: Warum sollte man das Risiko von Detailverlust/Artefakten in Kauf nehmen, wenn es sich durch eine andere Ankoppelung leicht vermeiden ließe?
Aktuelle Cams sind da KEIN Hinderungsgrund mehr.

Zitat von Gerd_Duering:
Diesen Punkte läßt Du allerdings in Deinen Betrachtungen unter den Tisch fallen.

Mit recht denn er ist im hier diskutierten Fall Planetenfotografie bei 3,6 oder 6,2*N nicht Praxisrelevant.

Ein weiteres mal versuchst Du einen Einwand einfach beiseite zu schieben ...
Laß uns doch mal an Deinem Wissen teilhaben und liefere uns den Beweis, dass diese Betrachtungen nicht praxisrelevant sein sollen!?

Zitat von Gerd_Duering:
Das mit dem Irrtum gebe ich zurück!
Es geht nicht darum, die Diagonallinien mit irgendwelchen Mitteln erkennbar zu machen, sondern darum zu erkennen,

Ach nein, es geht also nicht darum Details zu erkennen bei der Planetenfotografie?

Wieder einmal versuchst Du Sachverhalte in Deinem Sinne zu verdrehen, indem Du Zitate inhaltsentstellend kürzt, wie originell!

Deswegen hier nocheinmal mein Originalzitat:
Zitat von blueplanet:
Es geht nicht darum, die Diagonallinien mit irgendwelchen Mitteln erkennbar zu machen, sondern darum zu erkennen, dass das in Diagonalrichtung vorliegende undersampling (die Pixelkanten der Linien treffen aufeinander) die übertragenen Informationen verändert und genau das geht aus den Pics hervor!

Da Du meine Pic verkleinert hast: ist das Deine Methode pixelgroßes Detail auf Planeten sichtbar zu machen???

Wohl kaum! Das diente nur dazu, meine Pics in Deinem Sinne mit einem interpolierenden Algorithmus zu manipulieren!
Denn die wirklichen Details gingen dabei verloren! Soviel zur Detailerhaltung ...

Zitat von Gerd_Duering:
Na ja mag sein das du da andere Ziele hast, ist ja ein vielseitiges Hobby, ich jedenfalls möchte Planetendetails sehen und nutze da auch alle Möglichkeiten um diese sichtbar zu machen.

Erstens: Du wirst wohl kaum Planetendetails durch Verkleinerungen hervorholen???
Zweitens: Es ging darum zu zeigen, dass das undersampling in Diagonalenrichtung die übertragene Information verändert.
Drittens: Ist das nur EIN Beispielbild. Ich mach mir jetzt sicher nicht nur wegen Dir die Mühe, für alle Orientierungen CCD zu Liniengitter pics aufzunehmen.

Zitat von Gerd_Duering:
Bei 2*P ist die Detailinformation für die Diagonallinien in deinem Bild bereits vorhanden das ist Fakt und man kann sie sichtbarmachen das habe ich gezeigt und mehr braucht es schlicht und ergreifend nicht.

Falsch! Es liegt eben ein spatial aliasing (jaggies) vor und das sieht man in meinen Pics (deswegen hab' ich mir die Mühe gemacht)!
In Deinen Verkleinerungen geht das schlicht unter.

Zitat von Gerd_Duering:
Wenn Du schon meine pics verkleinerst, hättest Du fairerweise KEINEN interpolierenden und damit informationsverändernden Algorithmus verwenden dürfen! In der Verkleinerung werden damit die Diagonalen zwar hervorgehoben, aber die zugrundelegende Problematik unterdrückt und damit nicht mehr erkennbar.
Deine Problematik ist künstlich erzeugt und sie lässt sich wie gezeigt mit einem interpolierenden Algorithmus problemlos vermeiden.
Nichts anderes macht auch unser Gehirn.

Ein weiteres mal: falsch! Es geht eben nicht um den Überblick, sondern um die Artefakte, hervorgerufen durch undersampling/spatial aliasing.

Zitat von Gerd_Duering:
Fair ist es die Informationen aus dem Bild zu holen die auch da drin enthalten sind und nicht sie mutwillig zu unterdrücken um einen höheren Faktor als wirklich notwendig vorzugaukeln.

Ich habe überhaupt nichts mutwillig unterdrückt!!! Das machst Du mit Deiner Manipulation! Du unterdrückst die in meinen Bildern sichtbaren Artefakte durch Deine Interpolation/Verkleinerung!

Zitat von Gerd_Duering:
Was meinst du was der Sinn und Zweck der ganzen Filter ist die bei der EBV von Planetenbildern ja sehr reichlich und in sehr intensiver Form angewendet werden.
Ja richtig aus dem unscharfen Summenbild all die Informationen rauszuholen die da drin enthalten sind.

Erstens: Artefakte in den Ausgangsbildern werden durch eine aggressive EBV mitverstärkt. Insofern sollte man sich schon um ein artefaktfreies Ausgangsmaterial bemühen.
Zweitens: Es handelt sich nicht um ein Summenbild, sondern um ein Einzelbild, an dem ein Effekt des undersamplings gezeigt werden sollte.
Diese Artefakte werden durch Deine Manipulationen (Interpolation/Verkleinerung) lediglich unkenntlich gemacht, bzw. bis zu Unkenntlichkeit verkleinert.

Zitat von Gerd_Duering:
Ich fasse zusammen: der Ankoppelfaktor von ca. 6x ist nicht willkürlich gewählt, sondern im Hinblick darauf, möglichst alle von dem Teleskop zur Verfügung gestellte Information auch aufzuzeichnen. Beispiele aus der professionellen Praxis bestätigen das.

Ich korrigiere.
Die 6x sind schon in der Herleitung allein deshalb willkürlich weil sie auf willkürlich festgelegten Ausgansparametern basieren.
Im Hinblick auf die erfassbaren Details sind sie es weil es eine fließende Entwicklung gibt die oberhalb von 3,6 nur sehr langsam gegen 100% läuft und es willkürlich ist zu sagen so bei 99 oder so bei 98% oder welchem Prozentsatz auch immer wäre nun der entscheidende Punkt.

Beispiele von den Profis gibt es mit sehr unterschiedlichen Faktoren was bestätigt das es eben eine schwammige Sache ist bei der es keinen Stein der Weisen gibt, weder bei 6,2 noch sonst wo.

An Deinem "Willkürlich" und "schwammig" hast Du Dich jetzt offenbar festgebissen?
Was ich Dir präsentiere ist entweder willkürlich, schwammig, nicht praxisrelevant oder Prinzipienreiterei.
Auch eine Methode sich Argumenten zu verweigern ...

Aber egal wie oft Du das jetzt auch schreibst: die Auslegungs-Parameter sind ganz bewußt so gewählt, dass bei besten Bedingungen eben möglichst alles Detail aufgezeichnet werden kann und da kommt eben als Orientierung ein Faktor von um N=(6xPixelbreite) heraus. Nicht nur bei mir, sondern auch bei wirklich professionell ausgerichteten Geräten.
Das ist kein Stein der Weisen oder willkürlich, sondern das Ergebnis einer logischen Schlußfolgerung, Das kann jeder ganz einfach nachvollziehen (siehe oben). Vielleicht probierst Du es auch nocheinmal?
Außerdem: warum sollte man bei einem kleineren Ankoppelfaktor Detailverlust/Artefakte und eine komplexere EBV in Kauf nehmen, wenn sich all das durch einen größeren Ankoppelfaktor leicht umgehen ließe?

Wie auch immer: die geneigte Leserschaft möge sich selbst ein Bild machen, ob der Faktor 6x auf Grund einer sinnvollen und fundierten Überlegung und Berechnung oder nur willkürlich entstanden ist!

Ciao Werner
 
Hallo Werner,

Kann es sein, dass Dir in der Beziehung einfach die Praxis abgeht, um abschätzen zu können, was WIRKLICH praxisrelevant ist?
Der Eindruck drängt sich mir auf ...
danke gleichfalls,
Deine gesamte Argumentation beruht auf rein theoretischen Überlegungen.
Aufnahmen wie von Jan die dich wiederlegen ignorierst du.
Außer deinem theoretischen Konstrukt hast du nicht den geringsten Beweis das Faktor 6 irgendeinen Praxisrelevanten Vorteil hat.
Selbst dein Versuch mit den Diagonalstreifen geht nach hinten los und beweist eigentlich genau das Gegenteil von dem was du uns hier weismachen möchtest.
Also lieber Theoretiker wer so im Glashaus sitz wie du sollte verdammt vorsichtig sein mit dem Steinewerfen.

Mit Profis meine ich Profis und nicht Amateure.

Da sieht man mal wieder wie selektiv Deine Wahrnehmung ist.
Es scheint für dich wohl keine anderen Profis zu geben als die vom DOT Projekt.
Ich meine auch Profis wenn ich Profis schreibe zb. die vom Hubble Teleskop
Christian hatte da zb. was interessantes ausgegraben.

http://forum.astronomie.de/phpapps/...30/Re:_Überlegungen_zum_Sampling_#Post1141630

0.046 arcsec/ pixel for the planetary camera (PC1).
Das Hubble Teleskop hat bekanntlich einen 2,4m HS also eine Auflösung von
(206265*0,00055mm)/2400mm = 0,047 arcsec und damit wären wir bei rund 1*Pixel und nicht bei 3*Pixel

Aber vielleicht sind das bei Hubble ja nur alles Amateure und du bist der große Profi der den heiligen Gral gefunden hat und weist es daher besser.

DOT scheint Dir wohl nicht zu gefallen? Passt wohl nicht, wie Du so schön sagst, in Deinen Kram?

DOT passt ausgezeichnet in meinen Kram da es beweist das die Profis eben sehr unterschiedliche Faktoren verwenden was genau meine Auffassung bestätigt.

Da Du meine Pic verkleinert hast: ist das Deine Methode pixelgroßes Detail auf Planeten sichtbar zu machen???

Wohl kaum! Das diente nur dazu, meine Pics in Deinem Sinne mit einem interpolierenden Algorithmus zu manipulieren!
Denn die wirklichen Details gingen dabei verloren! Soviel zur Detailerhaltung ...

Es ist nicht die Verkleinerung sondern der Algorithmus.
In der umfangreichen EBV die bei der Planetenfotografie angewendet wird ist der von mir verwendete Algorithmus ja geradezu ein sehr bescheidenes Mittel.
Es ist völlig Praxisfremd gerade wenn es um die Darstellung der Auflösung bei der Planetenfotografie geht auf jegliche Algorithmen zu verzichten.

Wenn du ein Problem mit Algorithmen hast weil sie in deinen Augen informationsverändernd sind dann müsstest du auf jegliche EBV bei der Planetenfotografie verzichten.
Das beginnt beim Summenbild geht über die diversen Filter um die Details rauszuarbeiten bis hin zum Erstellen des Farbbildes aus den einzelnen Farbkanälen.
Immer sind Algorithmen im Spiel.

Grüße Gerd
 
Hallo Gerd

ich finde der Werner hat durchaus sehr gute Argumente genannt, die Du beachten solltest. Seine Herleitungen sind schlüssig und werden durch Praxisbeispiele gestützt. So wird am DOT an der Leistungsgrenze der Optik fotografiert. Ein weiterer Praxisnachweis sind viele hervorragenden Planetenaufnahmen. Keiner der besten Planetenfotografen arbeitet mit kleinen f-Werten um die 3*P. Alle gehen höher. Die Schwierigkeiten mit der Bildverarbeitung könnte man durchaus handeln.

Also: Da wären viele starke Praxisnachweise. Man kann natürlich auch mit kleinen f-Werten Arbeiten und sehr gute Resultate erzielen. Aber irgendwie kommt die Masse immer wieder zu hohen Brennweiten. Ganz ehrlich: Ich frage mich wirklich warum.

Zitat von gerd:
Aufnahmen wie von Jan die dich wiederlegen ignorierst du.
Jans Bilder sind nicht nachweislich am maximal Möglichen. Ich könnte mich ja auch hinstellen und behaupten, D.Peachs Bilder sind der Nachweis für korrektes Sampling. Die Zusammenhänge sind leider komplizierter und die Wahrheit liegt wohl irgendwo in der Mitte.



Viele Grüße,
Christian
 
Zitat von Christian_P:
Man kann natürlich auch mit kleinen f-Werten Arbeiten und sehr gute Resultate erzielen. Aber irgendwie kommt die Masse immer wieder zu hohen Brennweiten. Ganz ehrlich: Ich frage mich wirklich warum.
Hallo miteinander,

möglicherweise wird ja vor allem deshalb mit aus meiner Sicht überlangen Brennweiten aufgenommen, um das bei der Wiedergabe störende Bildschirmraster zu "überwinden". Das geht aber vielfach auch mit einer datentechnischen Nachvergrößerung, die dann zu einer scheinbar längeren Ankopplung führt.

Ich hatte diesen Sachverhalt hier schon mehrfach anhand einer Saturnaufnahme angesprochen, war damit aber auf keine nennenswerte Resonanz gestoßen. Ohne Nachvergrößerung ist die Saturnaufnahme im 100% Maßstab des mit f/D = 2,7*p aufgenommenen Videos allein wegen des Bildschirmrasters "unleserlich". Erst im 200% Maßstab mit (f/D)*2 = 5,4*p werden dort Oberflächendetails sichtbar, die einem von Aufnahmen mit längerer Brennweite her durchaus vertraut sind, so insbesondere die Feinzeichnungen auf dem Planeten selbst und auf den Ringen. Edit: Solche Feinheiten werden im 100% Maßstab, wie man bei der Betrachtung aus geringem Abstand unmittelbar erkennen kann, durch das Bildschirmraster "zugedeckt". Sie sind aber offensichtlich im Bild enthalten, anderenfalls könnten sie mit der Nachvergrößerung nicht zum Vorschein gebracht werden.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo,

@Gerd:
Ich denke es ist nicht sinnvoll hier weiterzumachen, deswegen nur eine kurze Anmerkung meinerseits hierzu:

Zitat von Gerd_Duering:
Ich meine auch Profis wenn ich Profis schreibe zb. die vom Hubble Teleskop
Christian hatte da zb. was interessantes ausgegraben.

http://forum.astronomie.de/phpapps/...30/Re:_Überlegungen_zum_Sampling_#Post1141630

0.046 arcsec/ pixel for the planetary camera (PC1).
Das Hubble Teleskop hat bekanntlich einen 2,4m HS also eine Auflösung von
(206265*0,00055mm)/2400mm = 0,047 arcsec und damit wären wir bei rund 1*Pixel und nicht bei 3*Pixel

Aber vielleicht sind das bei Hubble ja nur alles Amateure und du bist der große Profi der den heiligen Gral gefunden hat und weist es daher besser.

Offensichtlich hast Du nicht alles durchgelesen. Angefangen hat die Geschichte um das HST mit meiner Bemerkung, dass für die undersampleten Bilder der WFPC 2 das Drizzlen eingeführt wurde.

Zitat von blueplanet:
Genau dafür wurde es erfunden: siehe Hubble Space Telescope Wide-Field Planetary Camera 2
http://www.stsci.edu/~fruchter/dither
http://www.adass.org/adass/proceedings/adass99/O6-02/

Auf die Möglichkeit dieser Technik hatte ich sogar mehrmals in diesem thread hingewiesen: ...

Und mein weiterer Kommentar:
Zitat von blueplanet:
Nahezu alle Cam-daten des HST (ASC/HRC, WFPC2, NICMOS, STIS, ...) wurden mit MultiDrizzle(Dither/Drizzle)-Verfahren aufgearbeitet, d.h. u.a. Auflösungsrekonstruktion!

Dazu hab' ich auch ein Beispiel gebracht:

Zitat von blueplanet:
STRATEGIES FOR IMAGING CERES AND VESTA WITH THE HUBBLE SPACE TELESCOPE, Max J. Mutchler1 et al.,Asteroids, Comets, Meteors (2008) 8284

"Introduction: The Hubble Space Telescope (HST)
was used to conduct high-resolution imaging of Vesta
and Ceres in support of the Dawn mission,..."
"Hubble observations: Imaging of Ceres was conducted
with the ACS High Resolution Channel (HRC)
in 2004 ..."
"Drizzling Ceres: The four ACS/HRC exposures
for each filter were carefully registered using a crosscorrelation
method which utilizes the available surface
features to align the images to within a small fraction
of a pixel. Then they were distortion-corrected, combined,
and cleaned of cosmic rays and detector artifacts
using MultiDrizzle."
"The subsampled data was drizzled to an output scale of 0.015 arcsec/pixel,"

Der Maßstab 0,015"/pixel entspricht dann aber einem Ankoppelfaktor von 5,3!
Im Fall von Vesta 0,0114"/pixel sogar 6,9!

Die am Anfang (von 1990-1997) in Einsatz befindliche FOC (faint object camera) hatte übrigens von haus aus eine Ankopplung von 6,1x (FOC: f/96, 15um-Pixel)!

Das undersampling wird also durch Dithern/Drizzlen weitestgehend wettgemacht. Witzigerweise ist dann der effektive Faktor im Falle von Ceres/Vesta mit 5,3x und 6,9x in der Größenordnung von 6x. Bei der FOC war er von haus aus 6,1x. Gibt zu denken ...
Insofern ist Dein Hinweis auf die hier verwendete Ankopplung irrelevant.


@Christian:
Die Diskrepanz zwischen den Ankoppelfaktoren wird sich wohl so schnell nicht auflösen. Dafür sind die Meinungen zu gegensätzlich.

Ich seh halt in der Literatur quer durch alle Sparten (Interferometrie, Mikroskopie, Astronomie, ...), dass eigentlich immer eine höhere Ankopplung (meist 3-4 Pixel/auflösbarem Detail) empfohlen wird. Da diese Anwendungen wie gesagt eher professionell ausgerichtet sind und die höheren Ankoppelfaktoren wohl kaum willkürlich entstanden sind, halte ich diese zur Orientierung für verlässlicher und habe versucht das hier zu begründen.

Allerdings habe ich keineswegs, wie Gerd meint den heiligen Gral gefunden (leider ...), da auch mir ein paar Faktoren nicht ganz klar sind. Weiter diskussionswürdig wären u.a. der Einfluss der Pixelanisotropie, der Einfluss des integrierenden samplings (keine infinitesimal kleinen Punkte) und schließlich die Rekonstruktion durch die EBV.

Aber wie Du selbst schreibst, sind die Zusammenhänge leider kompliziert und verlässliche Angaben schwierig zu finden.

Ciao Werner
 
Zitat von blueplanet:
"The subsampled data was drizzled to an output scale of 0.015 arcsec/pixel," Der Maßstab 0,015"/pixel entspricht dann aber einem Ankoppelfaktor von 5,3!
Hallo Werner,

in entsprechender Weise bin ich ja bei meinem Saturn - siehe letzte Eingabe - von einem Ankoppelfaktor 2,7 durch interpolierende Nachvergrößerung des Summenbilds um den Faktor 2, aber eben nicht durch Dithern und Drizzeln während der Aufnahme, auf den "scheinbaren" Ankoppelfaktor 5,4 gekommen. Die aufgrund der Nachvergrößerung gewonnene Sichtbarkeit von Bilddetails führe ich auf die aus meiner Sicht in jedem Falle erforderliche Überwindung des Bildschirmrasters zurück. Merkwürdigerweise wird das Bildschirmraster als störender Faktor bei all den Diskussionen hier überhaupt nicht in Betracht gezogen.

Gruß, Jan
 
Hallo Jan,

die Frage der optimalen Kamera-Ankopplung ist unabhängig von der Bildschirmdarstellung des Ergebnisbildes! Hier wird man durch irgendwelche Tricks nichts herbei zaubern können, das nicht auch vorher schon im Videomaterial enthalten ist. Im Moment der Videoaufnahme entscheidet sich alles. Ein Bild muss auf dem Monitor eine entsprechende Größe haben, damit man Details leichter sehen kann. Das ist klar. Das hat aber nichts mit der Ankopplung zu tun. Bei einer bestimmten Ankopplung kann man je nach Sichtbedingungen mal mehr mal weniger Details darstellen. Man vergrößert das Bild dann je nach Geschmack, kann dabei aber natürlich keine neuen Details sichtbar machen, die nicht schon vorher im Videomaterial enthalten waren. Vergrößert man seine Bilder immer auf die gleiche Größe, kann man die Unterschiede durch verschiedene Ankopplungen zeigen. Dazu muss man natürlich auch gelegentlich unterschiedliche Ankopplungen anwenden.

Genau so ein Vergleichstest wäre wirklich mal aufschlussreich. Ich werde mal ein filigranes Erdobjekt durch die Teleskopoptik videografieren, um unterschiedliche Kamera-Anbindungen zu vergleichen. Auch kann ich nur jedem empfehlen, regelmäßig unterschiedlichen Brennweiten zu probieren. Sich vorher festzulegen und dann alle möglichen Argumente aus der Trickkiste zu holen, bringt nun wirklich nichts.


Viele Grüße,
Christian
 
Zitat von Christian_P:
die Frage der optimalen Kamera-Ankopplung ist unabhängig von der Bildschirmdarstellung des Ergebnisbildes!
Hallo Christian,

davon musst Du mich gar nicht überzeugen ! Was ich sagen und anhand der Saturnstudie demonstrieren wollte, ist doch nur, dass man das störende Bildschirmraster auch mittels Nachvergrößerung "unschädlich" machen kann, und dass man mithin die zur Überwindung des Bildschirmrasters erforderliche Vergrößerung nicht bereits während der Aufnahme durch überschüssige Brennweitenverlängerung bewerkstelligen muss.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo Gerd,

Ich komme mit der Rechnerei irgendwie noch nicht ganz mit. Ich versuche es mal zusammen zu fassen. Korrigier mich bitte, falls ich etwas falsch verstanden habe.
Du schlägst als erstrebenswertes Öffnungsverhältnis (N) einen Wert vor, der sich mit der Faustformel
3,6*Pixelkantenlänge
errechnet. Stimmt das soweit?

Wenn ich diese Formel für gängige Pixelgrößen verwende, bspw. 4,8µm, dann komme ich auf ein Öffnungsverhältnis von f/17,2. Da ist doch jede astronomische Fotooptik meilenweit entfernt. Üblich ist doch eher f/7 bis f/4.
Wo liegt da mein Verständnisfehler?

Grüße,
Hardy
 
Hallo Jan
Zitat von Jan_Fremerey:
Zitat von Christian_P:
die Frage der optimalen Kamera-Ankopplung ist unabhängig von der Bildschirmdarstellung des Ergebnisbildes!
davon musst Du mich gar nicht überzeugen ! Was ich sagen und anhand der Saturnstudie demonstrieren wollte, ist doch nur, dass man das störende Bildschirmraster auch mittels Nachvergrößerung "unschädlich" machen kann, und dass man mithin die zur Überwindung des Bildschirmrasters erforderliche Vergrößerung nicht bereits während der Aufnahme durch überschüssige Brennweitenverlängerung bewerkstelligen muss.
Man verwendete doch nicht deswegen einen größeren Abbildungsmaßstab, weil man das Bild gleich genügend groß haben will, sondern, weil man sich ein geeigneteres Sampling erhofft, bei dem feinere Details darstellbar sind. Von den Vorteilen für die Bildverarbeitung mal abgesehen. Daher kann ich keinen Bezug zum eigentlichen Thema erkennen, außer vielleicht, dass bei einer knappen Kameraankopplung auf eine genügende Nachvergrößerung zu achten ist, damit feinere Details überhaupt auf dem Bildschirm zu sehen sind. Die Kameraankopplung mit längerer Brennweite hat hier also sogar zwei Vorteile.



Viele Grüße,
Christian
 
Zitat von Christian_P:
Die Kameraankopplung mit längerer Brennweite hat hier also sogar zwei Vorteile.
Hallo Christian.

ja, genau, und da nur wenige Autoren überhaupt von der Nachvergrößerung Gebrauch machen, ist anzunehmen, dass sie den Abbildungsmaßstab grundsätzlich allein über die optische Brennweite einstellen. Dann müssen sie aber mit f/D > 3*p ankoppeln, weil sonst Bilddetails unsichtbar bleiben, siehe mein Saturnbeispiel. Einige von uns ziehen daraus nun zu Unrecht den Schluss, dass man prinzipiell diese überlangen Aufnahme-Brennweiten braucht.

Aus der Saturnstudie habe ich gelernt, dass dort f/D = 2,7*p als Ankopplung für die Erfassung aller Bilddetails ausgereicht hat, und dass ich für eine saubere Wiedergabe der mit dieser Ankopplung gewonnenen Bilddetails einen größeren Abbildungsmaßstab brauche, aber keine längere Kamera-Ankopplung. Das ist der Zusammenhang, den ich hier sehe, der aber bislang offensichtlich von keinem unserer überzeugten Langoptiker auch nur ansatzweise in Betracht gezogen wurde.

Edit: Insofern hast Du gewiss Recht: Wir müssen klar unterscheiden zwischen minimaler Kamera-Ankopplung und minimalem Abbildungsmaßstab.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo zusammen,

@all:

Tirion hat gerade Jupiterbilder hier eingestellt:

http://forum.astronomie.de/phpapps/ubbthreads/ubbthreads.php/topics/1142021
http://forum.astronomie.de/phpapps/...leries/1142019/Jupiter_vom_13.02.2015_und_Nac

Diese sind mit einem Orion Newton 12"/f5,3 in Verbindung mit einer 5x Televue Powermate und einer ASI120MM-Cam (3,75um-Pixel) entstanden.

Diese Pics sind bei einem Öffnungsverhältnis von ca. f/22 entstanden (6490mm/300mm bzw. 6590mm/300mm).

D.h. der Ankoppelfaktor ist in dem Fall (die ASI hat 3,75um-Pixel) ca. 5,9!!!

Dieser Faktor liegt fast Faktor 2 von Gerd's favorisierter Ankoppelung (3,6x) entfernt, dagegen aber sehr in der Nähe des von mir zur Orientierung vorgeschlagenen Faktors 6,2x!

Für meinen Versuch diese Ankoppelung vor einem theoretischen Hintergrund und mit Beispielen zu begründen wurde ich von Gerd massiv angegriffen. Mir wurde Praxisferne und Prinzipienreiterei vorgeworfen, zuletzt sogar eines meiner Beispiele in sinnverdrehender Weise manipuliert.
Die Qualität obiger Bilder (obwohl nicht bei optimalem seeing gewonnen) bestätigen dagegen ein weiteres mal, genauso wie so manche andere Pics hier und in anderen Foren, dass
diese höhere Ankopplung durchaus praxisrelrevant ist und auch sehr gute Ergebnisse liefert!

Insofern stellt sich umso mehr die Frage an alle Vertreter der kleinen Ankoppelfaktoren:
Warum sollte man bei einem kleineren Ankoppelfaktor Detailverluste/Artefakte und eine komplexere EBV in Kauf nehmen, wenn sich all das durch einen größeren Ankoppelfaktor leicht umgehen ließe?


@Jan:
Zitat von Jan_Fremerey:
Die aufgrund der Nachvergrößerung gewonnene Sichtbarkeit von Bilddetails führe ich auf die aus meiner Sicht in jedem Falle erforderliche Überwindung des Bildschirmrasters zurück. Merkwürdigerweise wird das Bildschirmraster als störender Faktor bei all den Diskussionen hier überhaupt nicht in Betracht gezogen.

Maximale Grenzauflösung des Auges bei deutlicher Sichtweite (Abstand: 25cm): ~ 4-6lp/mm.
=>
Betrachtungsabstand / ~ min. erkennbare Pixelgröße
75cm / 0,25-0,38mm
50cm / 0,17-0,25mm
25cm / 0,08-0,13mm

Ein 18"-Bspl.-Monitor 360x290mm/1280x1024Pixel hat 0,281x0,283mm-RGB-Pixel.

Die Details sind demnach auch schon alle in der kleineren Version gerade so sichtbar. Sie sollten nicht im Bildschirmraster untergehen.
Es streng halt nur das Auge an, bei der Grenzvergrößerung Details zu erkennen.

Dafür erkennt man die Nachteile der exzessiven Nachvergrößerung. Vor allem in den Pics, die erst nach der Vergrößerung geschärft wurden (äußerste rechte Spalte, vor allem linear und bikubisch) zeigen sich deutliche Artefakte der Pixelverdoppelung.
In den Pics, die zuerst geschäft und dann vergrößert wurden, werden diese Artefakte verwischt, sind aber z.T. ansatzweise noch schwach erkennbar (bei linear in den Ringen).

Allgemein stellt sich wieder obige Frage: Warum nicht gleich bei einer Ankoppelung arbeiten, die Detailverluste/Artefakte weitgehend vermeidet und als Nebeneffekt den Planeten schon vergrößert zeigt? Auch die Zwischenbearbeitungschritte fallen damit weg, die Artefakte generieren könnten.

Ciao Werner
 
Hallo,

hat schon wer einen Binning-Versuch gemacht? Zumindest in Firecapture kann man die AL5 auch im 2x2bin betreiben.

Ein Teleskop, eine Kamera, eine Barlow, wahrscheinlich gleiches Seeing wenn Videos gleich hintereinander aufgenommen wurden, die Variable ist die Pixelgröße durch Binning

im 1x1bin mit P ~ 6
im 2x2bin wäre P die Hälfte ohne dass man das Setup verändern müsste.

Videos von Jupiter aufnehmen (ähnliches Histogramm achten) und gleich/ähnlich bearbeiten und schauen was rauskommt.

Beide dann auf gleiche Bildgröße gebracht, dass die Praktiker sich auch selber eine Meinung bilden können.

Viele Grüße
Wolfgang
 
Status
Es sind keine weiteren Antworten möglich.
Oben