Überlegungen zum Sampling für high resolution | Astronomie.de - Der Treffpunkt für Astronomie

Überlegungen zum Sampling für high resolution

Status
Es sind keine weiteren Antworten möglich.

Christian_P

Aktives Mitglied
Hallo miteinander,

hier mal ein simples, stark vereinfachtes Modell zum Thema Sampling. Das ist sicherlich nichts Neues, aber durchaus aufschlussreich.


Der Einfachheit halber nehmen wir nur punktförmige Objekte an, die ebenfalls wieder ideal punktförmig auf dem Sensor abgebildet werden. Der Sensor wird ebenfalls als ideal angenommen, das heißt, da, wo ein Lichtpunkt einfällt, wird nur dieses Pixel hell. Weiterhin sei die einzige Eigenschaft der Optik, die für die Detailauflösung verantwortlich ist, das Auflösungsvermögen der Optik.



D = Objektivdurchmesser der Optik [mm]
F = Brennweite der Optik [mm]
N = Öffnungszahl
S = Sampling [Bogensekunden/Pixel]
P = Kantenlänge eines Pixels [µm]
R = Auflösungsvermögen [Bogensekunden]


Es gilt

R = 120/D
S = 206*P/F
F = N*D





Link zur Grafik: http://diffraction.de/astronomy/theory/sampling.png


Für die eindeutige Trennung zweier Objekte ist es notwendig, dass zwischen den beiden Lichtpunkten auf dem Bildsensor noch ein Pixel schwarz bleiben muss. Diese Situation findet sich im linken Teil des Bildes. Dort auf jeden Fall für alle Lichtpunkte auf dem Kreis in dieser Lage.


es ist 2*S = R = 120/D, also S = R/2 = K/D mit K = 60

oben hatten wir S = 206*P/F und F = N*D, also ist S = 206*P/(N*D)

Nun folgt S = K/D = 206*P/(N*D) = S

und weiter N = (206/K)*P = A*P

mit A = 206/K = 206/60 ~ 3.4



Nun verkleinern wir den Kreis so weit, dass der obige linke Zustand immer noch für fast alle Punkte des Kreises gilt, mit Ausnahme der Eckpunkte des Pixelquadrats.

dann ist K = 120/sqrt(2) = 60*sqrt(2)

also A = 206/K ~ 2.4



A in der Formel N = A*P liegt also ungefähr zwischen 2.4 und 3.4.



Für P = 3.75µm ergibt sich also ein Bereich der Öffnungszahlen von N ~ 9 bis N ~ 13 für eine Anbindung der Kamera für dieses stark vereinfachte Modell.





Viele Grüße,
Christian
 

Sven_Wienstein

Aktives Mitglied
Hallo Christian,

das Modell ist mir zu stark vereinfacht. Hast Du Dich mal um die Abtast-Theoreme von Shannon und Nyquist gekümmert?

Die Forderung eines komplett schwarzen, also unberührten Pixels ist ja in der Praxis weder notwendig, noch haltbar (Beugungsringe). Außerdem zeichnest Du hier mit sehr kleinen Beugungsscheibchen, sehr großen Pixeln und sehr großen Abständen. Die Abtasttheoreme hingegen besagen, dass die ideale Abtastung mit der doppelten Frequenz der größten im Bild vorkommenden Frequenz stattfinden soll, um das Maximum an Detail zu erfassen. Das bedeutet, dass die Pixeldiagonale (als richtungsorientiert schlechteste Abtastung) nur halb so groß sein darf, wie das Beugungsscheibchen. Damit würde sich die Situation gegenüber Deinen Zeichnungen umkehren.
Ich glaube, dass Du mit der Forderung nach einer Trennung von falschen Voraussetzungen ausgehst. Die Forderung der Abtasttheoreme ist ja vielmehr die, ein Bilddetail einer bestimmten Größe eindeutig zu erfassen. Und damit gelangt man zur bereits genannten Forderung, mit wenigstens der halben Ausdehnung des Details abzutasten. Die dabei entstehenden Orts-Ungenauigkeiten lassen sich nun noch durch Überlagerung mit Superresolution reduzieren, so dass Details der genannten Größe mit einer feineren Ortsbestimmung detektiert werden.

Eigentlich also ist die Rechnung immer nur so zu machen, dass man die Pixeldiagonale so wählt, dass sie halb so groß wie das Beugungsscheibchen ist. Je nach Bedingungen muss man sich notgedrungen auch am Zerstreuungskreis orientieren, wenn Seeing das Bild verschmiert. Als Pixeldiagonalen um 5µ üblich waren, kam man so rechnerisch auf benötigte f/20 bis f/40. Kann man nachrechnen: 1" bei 120mm Objektivdurchmesser und 2400mm Effektivbrennweite führt zu Beugungsscheibchen von 2x tan(0,5")*2400mm=11,6µm. Da wird also ein solches Beugungsscheibchen gerade mit der halben Pixeldiagonale abgetastet und es fällt somit stets auf mindestens 4 Pixel. Das gilt aber nur für grün und somit hat man bei guten Bedingungen und einer im Blauen gut korrigierten Optik durchaus Grund, noch feiner abzutasten, sprich die Effektivbrennweite weiter zu verlängern. Die f/20 bei ca. 5µm entsprechen aber Deinen f/13 bei ca. 3,75µm. Nach den Abtasttheoremen wäre also f/9 bei idealen Bedingungen zu wenig. Für Farbkameras muss man aufgrund der Interpolation nochmals die Auflösung erhöhen. Spätestens hier rechtfertigt sich die genannte Spanne bis hin zu f/40 bei 5µm Pixeldiagonale. Für 3,75µm Pixeldiagonale kann man mit einer Farbkamera also ruhig auch f/26 aufrufen. Ob man allerdings dabei Belichtungszeiten erzielt, bei denen genügend Einzelbilder das Beugungsscheibchen annähernd unverzerrt und somit originalgroß wiedergeben, steht auf einem anderen Blatt.

Clear Skies
Sven
 

Christian_P

Aktives Mitglied
Hallo Sven,

vielen Dank für deine Rückmeldung! In Deinem Post sind viele interesante Aspekte dabei, die es zu berücksichtigen gilt, um ein umfassendes, alles erklärendes Modell aufzustellen. Sozusagen die Grand Unified Theory des idealen Samplings. Du verstehst sicherlich, dass es mein Anliegen ist, erst einmal ein glasklar durchschaubares einfaches Modell zu bringen, das auch jeder gleich verstehen kann.


Zitat von Sven_Wienstein:
das Modell ist mir zu stark vereinfacht. Hast Du Dich mal um die Abtast-Theoreme von Shannon und Nyquist gekümmert?
Das Modell ist einfach und überschaubar. Das ist ja gerade der Vorteil eines Modells. Und nein, wie geschrieben, in diesem einfachen Modell ist das Abtasttheorem eben gerade absichtlich nicht berücksichtigt, weil es nicht das Modell ist, was ich beschreibe. Ein entsprechendes Modell könntest Du ja mal übersichtlich mit Herleitung etc. aufschreiben. Da würde ich mich sehr freuen. Ich bin gespannt, auf welche genauen N-Werte Du dann kommst, d.h. welche exakten Vorhersagen du damit treffen kannst -> Faustformel.


Zitat von Sven_Wienstein:
Die Forderung eines komplett schwarzen, also unberührten Pixels ist ja in der Praxis weder notwendig, noch haltbar (Beugungsringe). Außerdem zeichnest Du hier mit sehr kleinen Beugungsscheibchen, sehr großen Pixeln und sehr großen Abständen.
Diese Forderung stelle ich aber auf, um das obige Modell zu beschreiben. Diese Annahmen sind das Modell! Die Punkte sind keine Beugungsscheibchen, sondern ideale Punkte. Das hatte ich oben auch so erklärt. Gerade durch diese Vereinfachungen bekomme ich als einen ersten Wert auf N = 3.4*P. Auch P.Wellmann leitet es ähnlich her: 1. Modell mit Dawes-Kriterium. Das ist also nicht neues, nur noch mal übersichtlich aufgeschrieben. Wie gesagt, in deinem Text sehe ich nicht durch. Du kommst dann irgendwie auf eine Spanne bis f/40, also N = 40, aber wie genau und wie dann dein Faktor A in N = A*P aussieht, weiß ich immer noch nicht.

Mein obiges sehr einfaches Modell macht genau die Vorhersage von ~ 3*P, also ca. der Mittelwert aus 2.4 und 3.4. Die Obere Grenze entspricht fast der Empfehlung von P.Wellmann und die untere Grenze hat zum Beispiel Jan hier aus dem Forum auch schon erfolgreich eingesetzt. Nach oben kann man immer gehen, das heißt, 2.4 wäre hier wirklich die absolut unterste Grenze und eigentlich schon zu knapp. Der Normalfall von S = R/2 (siehe obige Formel) passt aber gut zu den sonstigen Faustformeln. Farbkameras mit Bayer-Matrix sind hier der Übersichtlichkeit wegen auch außen vor. Dafür müssten extra Überlegungen angestellt werden. Ich ging natürlich von grünem Licht aus, ebenfalls der Übersichtlichkeit wegen (R = 120/D). Es wird eben unübersichtlich und schwammig, wenn man alles auf einmal betrachten will.






Viele Grüße,
Christian
 

Sven_Wienstein

Aktives Mitglied
Hallo Christian,

es liegt mir fern, Dich vor den Kopf zu stoßen, doch kann ich nicht akzeptieren, mit Punkten (also geometrischer Optik) zu argumentieren in einem Bereich, in dem Wellenoptik das Modell der Wahl ist. Eine Optik erzeugt als kleinsten physikalisch machbaren Spot eine Beugungsfigur passend zu ihren optischen Eigenschaften und der Form der Apertur.

Das mag jetzt patzig klingen, aber: Dieses Rad ist bereits erfunden.

Ansonsten habe ich einfach nur direkt die Größe des zentralen Beugungsscheibchens über 120/D abgeschätzt. Das läuft auf der Seite von P. Wellmann auch, aber er vereinfacht mit Sin und noch viel wichtiger: Die Forderung nach einer Trennung halte ich für unnötig. Das wäre ja bei der Aufnahme von flächigen Objekten so, als würde man behaupten, dass eine Fläche sich aus endlich großen Punkten zusammensetzte. Tut sie aber nicht!

f/20 bis f/40 leite ich nicht her, sondern das sind aus der Praxis anerkannte Werte. Wie ich schon erwähnte, wird bei Kameras mit Bayer-Maske über 4 Pixel interpoliert. Dementsprechend ist der effektive Pixeldurchmesser größer, als der Durchmesser eines farbgefilterten Einzelpixels. Naja, steht in dem Link auch alles drin. Werde ich nicht neu erfinden.

Clear Skies
Sven
 

Christian_P

Aktives Mitglied
Hallo Sven

Zitat von Sven_Wienstein:
Hes liegt mir fern, Dich vor den Kopf zu stoßen, doch kann ich nicht akzeptieren, mit Punkten (also geometrischer Optik) zu argumentieren in einem Bereich, in dem Wellenoptik das Modell der Wahl ist. Eine Optik erzeugt als kleinsten physikalisch machbaren Spot eine Beugungsfigur passend zu ihren optischen Eigenschaften und der Form der Apertur.
Es ist mir egal, ob du das akzeptierst oder in China fällt ein Sack Reis um. Fakt ist, dass ich auf die gleichen Werte wie Wellmann komme, wenn ich einen schwarzen Pixelzwischenraum fordere. Nichts anderes macht Wellmann auch. Also komm mir doch hier nicht mit Wellenoptik und tu nicht so, als wenn meine Herleitung völliger Müll wäre. Daran sieht man deine wahren Absichten in diesem Thread. Ich warte immer noch auf Deine Herleitung, die sich grundlegend von meiner unterscheidet, zumindest im Ergebnis. Du hast nämlich sogar die selbe Formel R = 120/D verwendet. Also nun überlege mal, in welcher Weise sich deine und meine Überlegung gleichen oder unterscheiden. Ich bin daran interessiert, andere Modellrechnungen zu vergleichen, aber nicht daran, dass jemand mein Modell madig macht.




Zitat von Sven_Wienstein:
Ansonsten habe ich einfach nur direkt die Größe des zentralen Beugungsscheibchens über 120/D abgeschätzt. Das läuft auf der Seite von P. Wellmann auch, aber er vereinfacht mit Sin und noch viel wichtiger: Die Forderung nach einer Trennung halte ich für unnötig. Das wäre ja bei der Aufnahme von flächigen Objekten so, als würde man behaupten, dass eine Fläche sich aus endlich großen Punkten zusammensetzte. Tut sie aber nicht!
Nochmal, denn Du scheinst es ja nicht zu begreifen. Was in der Natur genau passiert ist nicht modellierbar. Das sollte einen aber doch nicht davon abhalten, einfache, eigene Überlegungen anzustellen. Und komm mir doch nicht mit Sin(n) usw. Ich habe genau die gleichen Überlegungen angestellt, vielleicht bis auf die Abschätzung nach unten. Das ist der einzige Punkt, über den man sich konstruktiv (!) streiten könnte. Dann könnte man noch andere Effekte wie die Wellenlänge einbringen, Seeing ect. pp.


Zitat von Sven_Wienstein:
f/20 bis f/40 leite ich nicht her, sondern das sind aus der Praxis anerkannte Werte. Wie ich schon erwähnte, wird bei Kameras mit Bayer-Maske über 4 Pixel interpoliert. Dementsprechend ist der effektive Pixeldurchmesser größer, als der Durchmesser eines farbgefilterten Einzelpixels. Naja, steht in dem Link auch alles drin. Werde ich nicht neu erfinden.
Die Bayermatrix sollte erst mal außen vor bleiben. Anstatt Bekanntes nach zu erzählen, wäre es mir lieber gewesen, dass du dich mit einer konkreten Verbesserung meines Modells eingebracht hättest oder meines mit einem eigenen verglichen hättest und zwar auch hinsichtlich des Ergebnisses.






Aber Sven, lass es einfach gut sein.

Die Diskussion mit dir bringt nichts, macht keinen Spaß und ist damit leider für die Katz.





Viele Grüße,
Christian


PS: Ich vermute auch, dass Du meine Herleitung und mein Modell gar nicht richtig verstanden hast. Jedenfalls hast Du kein Interesse an einem konstruktiven Gespräch auf Augenhöhe.
 

MountyPython

Aktives Mitglied
Hallo Christian,

Sven hat schon recht. Nur vereinfacht man typischer Weise in der Astrophotographie die gesuchte Funktion :) durch eine Gauß-Verteilung. Es kommt halt auch darauf an, welche Funktion man rekonstruieren will. Auch wenn er sich beim Nyquist-Theorem einen kleinen Patzer erlaubt. Welche Funktion will denn Sven hier rekonstruieren, um mal an Dich die Frage zu stellen? Wenn Du die Antwort kennst, weißt Du, daß Sven recht hat.
Nur den Einwand mit dem Himmelshintergrund...naja...das kann man wohl noch als Konstante im Modell werten.

Viel Spaß beim Tüfteln,
Gruss,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:

Sven_Wienstein

Aktives Mitglied
Hallo Christian,

ach, ich kann Dich sehr gut verstehen. Du hast ein Modell erstellt und nun mache ich es Dir madig. Du bist also abgeneigt, eventuelle Schwächen Deines Modells zu diskutieren und gegebenenfalls anzuerkennen. Damit aber solltest Du den Begriff Modell fallenlassen, denn wer ein Modell schafft, tut dies im Bewusstsein der Tatsache, dass ein solches Modell als Abbildung der Wirklichkeit seine Grenzen, also Schwächen hat. Muss man aber bei einem Modell vereinfachen und idealisieren, dann würde ich sagen, dass das Modell oder dessen Schöpfer die Vorgänge noch nicht zur Gänze erfasst hat. Das würde ich von mir übrigens auch nicht behaupten, und wenn's so wäre, bräuchte man ja kein Modell bzw. man hätte schon eines, oder in diesem Fall würde ich sagen: Es gibt schon eins. Da ist es etwas müßig, ein neues zu erfinden.
Wenn es hingegen um einen vereinfachten Rechenweg geht, dann sollten wir über eine Faustformel sprechen. Die würden wir anhand der Ergebnisse und insbesondere anhand der Ergebnisse bei Grenzwerten diskutieren und durch eine Fehlerdiskussion zu ermitteln suchen, in welchen Wertebereichen die Faustformel hinreichend genau ist.

@Gerrit: Ja, ich habe die Theoreme vor Jahren mal in der DBV-Vorlesung um die Ohren bekommen und wenn ich dann mal in der Pause keine Zeit habe, es exakt nachzublättern, stehe ich auch gern dazu, wenn ich da Fehler mache.

Clear Skies
Sven

Edit: Christian, Du hattest doch selbst gefragt, woher f/40 bei ca. 5µm kommen sollen. Nun soll ich von Bayer-Matrix schweigen?
 
Zuletzt von einem Moderator bearbeitet:

Christian_P

Aktives Mitglied
Hallo miteinander


bei der Herleitung der nötigen Öffnungszahl mit dem Dawes Kriterium kommen recht unterschiedliche Werte heraus, je nachdem, ob man den einfachen Pixelabstand oder den diagonalen Abstand mit jeweils einem Zwischenraum ansetzt.


Einmal kommt A = 3.4 heraus, wie oben links, und mit diagonalen Abstand A = 4.8. Hier liegt auch wieder der Faktor Wurzel(2) dazwischen.

Also je nachdem, was man fordert kommen recht unterschiedliche Werte heraus. So ist es auch im Tutorial unter 1. Modell mit Dawes-Kriterium nachzulesen. Dort kommt man auf A = 3.6, weil sich die Formel geringfügig unterscheidet.


Aus praktischer Sicht es es erstaunlich, dass man selbst mit A = 2.4 schon praktisch die volle Auflösung abrufen kann.

N = A*P
mit A in [2.4 ; 4.8]

man kann es sich also aussuchen. Letztlich wird es immer die Praxis am Teleskop entscheiden, was schließelich den Erfolg bringt.



Auf eine saubere Herleitung mit PSF und Nyquist Kritrerium würde ich mich freuen! Vielleicht schaffen das die Herrschaften, die sich bis jetzt gemeldet haben, ja (??). ;)



Viele Grüße,
Christian



 

Anhänge

  • pixel.png
    pixel.png
    9,2 KB · Aufrufe: 1.703

Sven_Wienstein

Aktives Mitglied
Hallo Christian,

da Planeten ihre Details selten auf Anfrage hin so sortieren, dass nur die hochauflösenden Orthogonalen des Chips gefordert werden, kommt man nicht umhin, die Diagonale als Maß der Wahl zu fordern.

Weiterhin reicht es ja völlig, sich an den Abtasttheoremen zu orientieren. Immerhin ist sogar der geforderte Tiefpassfilter vorhanden. Das ist nämlich die Öffnung, welche durch das Beugungsbild einen hervorragenden Tiefpass erzeugt. Ich frage mich wirklich, warum ich da ein weiteres Rad herleiten soll.
Man findet eine Situation vor, wie sie hier geschildert ist:
http://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem#Tiefpass_zur_Verhinderung_von_Artefakten
Die Herleitung ist fertig, das ist bekannt, das ist benutzbar und wird benutzt. Einzig diskutiertbar wäre die Frage, welche Spotgröße man als Frequenzbegrenzung heranzieht. Das löst man aber nicht durch Dawes, sondern allenfalls mit einer PSF. Die muss ich aber hier auch nicht herleiten, weil jede Optik ihre eigene hat.

Was also eben das Dawes-Kriterium angeht: Das ist für mich eine art doppelte Rechnung. Entweder ich gehe von einer bekannten Spotgröße aus (Airy-Scheibchen oder zum Zeitpunkt der Aufnahme jener Klecks welcher nach Seeing und Belichtungszeit daraus wird), dann kann ich mit den Abtasttheoremen festlegen, welche Strukturgrößen sicher Strukturen des Urbildes sind, auch ohne ein Stück Dunkelheit dazwischen. Oder aber ich kenne meine Spotgrößen nicht und muss mir dann überlegen, in wie weit ich von einem dunklen Pixel zwischen zwei Airy-Scheibchen auf deren Durchmesser schließen kann. Das war aber doch gar nicht die Fragestellung...

So, wie war das jetzt eigentlich mit Deiner Faustformel? Was sollte die noch gleich als Modell berechnen? Du wolltest errechnen, welches Öffnungsverhältnis man für eine gegebene Pixelgröße mindestens braucht.
Wie ich oben schon darstellte, ist die Pixeldiagonale maßgeblich. (Müßig, das zu diskutieren, machen alle ernstzunehmenden Abhandlungen ohnehin.) Das nun das geforderte Öffnungsverhältnis linear zur gegebenen Abtastrate (nochmals: Pixeldiagonale) ist, ergibt sich ja ganz ohne einen beliebig komplizierten Rechenweg vom Spotdurchmesser als Winkelangabe einfach daraus, dass der Abbildungsmaßstab linear zur Brennweite ist. Die ganze Rechnerei wird eben nur beliebig kompliziert, wenn man anfängt, mit Winkelangaben am Himmel zu rechnen, um diese dann über Öffnung und Brennweite rückzurechnen. Das macht die Ermittlung von A kompliziert und unübersichtlich. Dabei wissen wir doch am Ende, dass schlicht und ergreifend ein Winkel a über die Brennweite f zu einem Spot p=2*tan(a/2)*f führt. Du kannst nun in a beliebig eine Auflösung in Abhängigkeit der Wellenlänge oder auch ein abgeschätztes Seeing von 1" eintragen. Natürlich kann man sich auch den Tangens ersparen und mit dem Sinus arbeiten, um diesen dann wiederum mit der Näherung sin(x)~x für (sehr) kleine x herunterzubrechen. Dann sind wir aber bei der Faustformel. Oder eben die PSF des gegebenen Teleskops sagt Dir, mit welchem Durchmesser die Spots da heraus kommen. Dann ist aber die Frage andersrum zu stellen: Welche Pixelgröße brauche ich bei gegebener Optik!

Clear Skies
Sven
 

Christian_P

Aktives Mitglied
Hallo Sven


Wo ist denn nun die daraus abgeleitete Öffnungszahl N, die mir als Astrofotografieinteressierter sagt, wie ich es machen soll?

Um mir daraus einen Ansatz zu basteln, brauche ich jedenfalls Zeit. Hier im Forum ist schnell mal irgendwas zusammengeschrieben und in hitzigen Diskussionen kommt selten was vernünftiges raus, weil sich keiner wirklich Zeit nimmt, sich mal was Vernünftiges auszudenken und den anderen zu präsentieren. Nein, hier hat jeder nur Angst sich zu blamieren, versteckt sich hinter bekannten Sachen, hinter diffusem Nebel, tut also schlau. So kommt natürlich nichts bei rumm. Das ist übrigens typisch geworden für dieses Forum hier.

Was du in deinem zweiten Absatz beschreibst, ist ja nichts anderes als was ich im Prinzip auch gemacht habe. Irgendeine Auflösung muss man zugrundelegen und damit ist man im Prinzip schon wieder fast bei Dawes. Ich bestehe keineswegs auf den Weg über das Dawes Kriterium, sondern betrachte das nur als einen möglichen Ansatz, den jeder im Kern nachvollziehen kann.

Übrigens: Überlegungen zum Sampling dürfen sich auch an praktischen Ergebnissen orientieren. Ein Grund, warum ich mich etwas näher damit beschäftige, sind die erreichten Ergebnisse, die auch schon mit geringeren Brennweiten als gemeinhin üblich erreicht werden.



Das Diagonalargument ist leicht angreifbar. Es existieren nämlich immer genügend Bildpunkte bzw. Punkte an Kontrastübergängen im Originalbild, die in der richtigen parallelen Richtung zu den Pixeln liegen, sodass die Kante hinreichen gut detektiert wird, um später mittels Bildverarbeitung sichtbar gemacht zu werden. Kanten- also Kontrastverläufe sind ja niemals schnurgerade. Außerdem wird durch die Luftbewegungen durch Seeing, für eine Verteilung der Bildpunkte auf dem Chip gesorgt, die dazu führt, dass in unterschiedlichen Bildern immer auch unterschiedliche Lagen vorhanden sind, sodass über die Summe der Bilder eine gute Detailwiedergabe entsteht. Dazu kommt auch noch, dass das Dawes Kriterium schon sehr streng ist. Man sieht also: Es ist keineswegs notwendig, die Diagonale aus Maß zu fordern. Im Mondtutorial wurde es auch nicht gemacht. Zugegebenermaßen ist man natürlich auf der sicheren Seite, wenn man das macht.




Hallo Werner

vielen Dank für deinen Einwurf

Zitat von Ifrit:
  • mit der MTF nahe der Grenzauflösung zu arbeiten
  • zu sehen, was Pixel bestimmter Breite daraus zusammenintegrieren
Legen wir also erst mal die Grenzauflösung fest.

Kennt jemand den Zusammenhang zur Teleskopöffnung? Welchen mindesten Objektkontrast sollte man voraussetzen: 20%, 10% ?




Viele Grüße,
Christian
 

Sven_Wienstein

Aktives Mitglied
Hallo Christian,

es existieren immer genügend Bildpunkte? Nein. Es kommt immer drauf an, für jede Lage zweier Details zueinander die richtige Abtastrate in der betreffenden Richtung zu haben. Das kannst Du nur über die Diagonale sicherstellen, denn in dieser Richtung ist die Abtastrate am schlechtesten. Denke nicht an einen freistehenden Punkt in einer homogenen Fläche! Denke an eine Diagonal laufende Barre mit ungleichmäßiger Kante. Die würde diagonal auf z.B. drei Pixeln liegen, hat aber Detail für fünf.

Zur abgeleiteten Zahl steht das wesentliche schon da:
2x tan(0,5")*2400mm=11,6µm gibt die Spotgröße für f/10.
Da ja alle Geräte mit gleicher Öffnungszahl N stets auf ein gleich großes Beugungsscheibchen kommen, kann man das mal eben rückrechnen. N*1,16µm ist die zu erwartende Größe des Airy-Scheibchens im Primärfokus bei allen Teleskopen. Dem liegt das simple 120/D als Faustformel für die Auflösung zugrunde. Man kann gerne je nach Wellenlänge umrechnen. Die Formel habe ich mir vor Jahren schonmal rausgesucht, die findet man. Um nun also auf das Wunsch N zu kommen, gibt man die Pixeldiagonale ein (nenne ich mal klein p) und kommt auf 2*p/0,58µm=N <=> p/0,29µm=N.

Rechne ich das nun konkret für einen aktuellen 24 MP APS-C-Sensor durch, komme ich auf 5,6µm Pixeldiagonale und lande bei f/19. Finde ich über die Diagonale gerechnet plausibel. Gebe ich mich mit weniger zufrieden, kommen natürlich entsprechend kleinere Werte heraus. f/12 für 3,4µm Kantenlänge eines 24 MP Sensors.

Übrigens hier auch sehr hübsch: http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm
Die machen das da nicht mit Punkten sondern mit Airy-Disks.

Clear Skies
Sven
 

SternfreundArno

Aktives Mitglied
Ich kann da eigentlich nichts theoretisches zu der "Diskussion" beitragen,aber:

zeigt doch mal eure planetenbilder die (eure) Theorien umgesetzt haben.
Das Ergebnis zählt nämlich, nicht die Theorie dahinter.

:)
lg
Arno
 

MountyPython

Aktives Mitglied
Zitat von Sven_Wienstein:
Hallo Christian,

es existieren immer genügend Bildpunkte? Nein. Es kommt immer drauf an, für jede Lage zweier Details zueinander die richtige Abtastrate in der betreffenden Richtung zu haben. Das kannst Du nur über die Diagonale sicherstellen, denn in dieser Richtung ist die Abtastrate am schlechtesten. Denke nicht an einen freistehenden Punkt in einer homogenen Fläche! Denke an eine Diagonal laufende Barre mit ungleichmäßiger Kante. Die würde diagonal auf z.B. drei Pixeln liegen, hat aber Detail für fünf.

Zur abgeleiteten Zahl steht das wesentliche schon da:
2x tan(0,5")*2400mm=11,6µm gibt die Spotgröße für f/10.
Da ja alle Geräte mit gleicher Öffnungszahl N stets auf ein gleich großes Beugungsscheibchen kommen, kann man das mal eben rückrechnen. N*1,16µm ist die zu erwartende Größe des Airy-Scheibchens im Primärfokus bei allen Teleskopen. Dem liegt das simple 120/D als Faustformel für die Auflösung zugrunde. Man kann gerne je nach Wellenlänge umrechnen. Die Formel habe ich mir vor Jahren schonmal rausgesucht, die findet man. Um nun also auf das Wunsch N zu kommen, gibt man die Pixeldiagonale ein (nenne ich mal klein p) und kommt auf 2*p/0,58µm=N <=> p/0,29µm=N.

Rechne ich das nun konkret für einen aktuellen 24 MP APS-C-Sensor durch, komme ich auf 5,6µm Pixeldiagonale und lande bei f/19. Finde ich über die Diagonale gerechnet plausibel. Gebe ich mich mit weniger zufrieden, kommen natürlich entsprechend kleinere Werte heraus. f/12 für 3,4µm Kantenlänge eines 24 MP Sensors.

Übrigens hier auch sehr hübsch: http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm
Die machen das da nicht mit Punkten sondern mit Airy-Disks.

Clear Skies
Sven

Hallo Sven,

wobei nur noch zu erwähnen bleibt, daß man beim Lucky-Imaging mit der Spotsize rechnet. Und in der Deepsky-Fotographie eher mit den mittleren Seeing-Werten (FWHM).
Aber ingesamt, wie Du schon sagst...nichts Neues. Man muß hier das Rad nicht unbedingt neu erfinden.
Viele Grüße,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:

Christian_P

Aktives Mitglied
Hallo Sven


Über den Ansatz mit Airy-Disk leitest du also her: N = 3.45*P mit P = Pixelkantenlänge in µm.
Da bin ich bei Dir!

Gehen wir mal davon aus, dass dieser Ansatz stärker wiegt, dann darf der Ansatz über Dawes nicht etwa ein völlig anderes Ergebnis bringen, denn sonst wäre das ein Widerspruch. Wenn ich den diagonalen Abstand ansetzte komme ich auf N = 4.8*P, also muss dieser Ansatz falsch sein. Der Ansatz über den "normalen" Abstand bringt mich nämlich auf N = 3.4*P, in hervorragender Übereinstimmung mit dem Ansatz über die Airy-Disk. Damit ist gezeigt, dass man die Diagonale nicht als Grundlage nehmen muss. Q.E.D.

Du siehst, man findet schnell einen Weg, seinen Hals wieder aus der Schlinge zu ziehen. ;)











Hallo Werner
Zitat von Ifrit:
P.S.: Unter http://www.beugungsbild.de/diffraction/diffraction.html wurden die ersten Schritte offensichtlich schon vollzogen, nur das Durchpixeln noch nicht. So langsam fange ich an zu glauben, dass "mein" Ansatz auch als ganzer schon längst durchexerziert wurde, und ich ihn bloß noch nicht gefunden habe.
Danke für die obigen sehr interessanten Links.

Dein Ansatz klingt interessant, enthält aber leider sehr viele Schritte, bis man ein Ergebnis erhält. Das ist immer schwer überschaubar. Vielleicht ist demnächst ja wirklich Zeit dafür da.


Im Grunde beschreibst du ein Interpolationsproblem, d.h., aus welchen minimalen Informationen kann man ein Bild noch hinreichend gut rekonstruieren also wie "klein" darf das Ausgangsbild sein. Ich kann mir gut vorstellen, dass man gewissen Experimente mit einfachen Bildvergrößerungsalgorithmen machen kann. Da schaut man, wie viel Information man braucht, sodass der Verlust nicht zu groß ist. So könnte man zumindest ein besseres Gefühl für die Sache bekommen.




Viele Grüße,
Christian
 

Gerd_Duering

Aktives Mitglied
Hallo Christian,

bei der Herleitung der nötigen Öffnungszahl mit dem Dawes Kriterium kommen recht unterschiedliche Werte heraus, je nachdem, ob man den einfachen Pixelabstand oder den diagonalen Abstand mit jeweils einem Zwischenraum ansetzt.

Dawes ist hier nicht das relevante Kriterium.
Es geht hier nicht um das trennen von Doppelsternen mit mehr oder weniger strengen Anforderungen an die Trennung nach Dawes oder Rayleigh.
Es geht um die Erkennbarkeit von Details und da ist die Auflösung in Linien /mm das relevante Kriterium.
Es ist der Punkt an dem die MTF gegen null läuft also ab dem kein Kontrastunterschied mehr zu erkennen ist und alles zu einer einheitlichen Fläche verschmitzt.

Lineare Auflösung = 1/ (N* Lambda)

Laut Abtasttheorem werden 2 Pixel für die Auflösung benötigt.

Es gilt also
2* Pixel = N* Lambda
N= 2*Pixel /Lambda
Bei 550nm also 0,55 Mikrometern ergibt sich damit ein Faktor von 2/0,55 = 3,6

Aus praktischer Sicht es es erstaunlich, dass man selbst mit A = 2.4 schon praktisch die volle Auflösung abrufen kann.
Bei 555nm ist A wie grad vorgerechnet 3,6!

Grüße Gerd
 

blueplanet

Aktives Mitglied
Hallo zusammen,

nach allen von mir gesichteten Infos komme ich bzgl. sampling, um bei optimalen Bedingungen wirklich alle von dem optischen System zur Verfügung gestellten Information aufzunehmen, auf Folgendes.

Hintergrund ist wie gesagt die Betrachtung nach MTF:
Maximalauflösung (MTF=0) = 1/(N x Wellenlänge)

Direkt bei der Maximalauflösung ist kein Kontrast mehr detektierbar. Insofern wurde 0,98 der Maximalauflösung (zufälligerweise Dawes-Limit) bei einer noch minimalen MTF als oberes Limit gewählt (laut Lit. ist diese Annahme gerechtfertigt).

Beim sampling dieser max. übertragenen Linienpaaranzahl wurde die Chipdiagonale angesetzt, um ein undersampling in Diagonalen-Richtung zu vermeiden (2x sqr2).

Als minimale Wellenlänge wurde 450nm gewählt, um auch bei RGB-Aufnahmen die volle Auflösung des Blaukanals zu nutzen.

Daraus folgt:
Mindest-sampling bzw. max. Pixelbreite = (Linienpaarbreite bei MTF=0, 450nm)/2,9
oder
Pixelbreite = N/6,2

D.h. z.B.
5,6um-Pixel -> f/34,7
3,75um-Pixel -> f/23,2

Dies experimentell auch zu belegen, ist unter normalen Umständen natürlich sehr schwierig.
Glücklicherweise gibt es aber ein System, an dem sich genau dieser Sachverhalt belegen läßt: DOT!
Hier wird der Einfluss der Atmosphäre via speckle-masking-Technik herausgerechnet. Das Aufnahmesystem kann sich demnach an dem theoretischen Limit des Optiksystems orientieren.
Wie sieht das nun aus?
Es handelt sich um ein 450/1980mm-Primärsystem mit 10facher Nachvergrößerung, also f/44. Die Aufnahmen erfolgen im Spektralbereich von ca. 400nm - 656nm. Die Aufnahme-Cams haben 6,7um-Pixel.
Betrachten wir die Auslegung für das G-band (430,5nm).
Nach MTF wär das max.-AV bei 52,8cycles/mm oder 18,9um/lp.
Bei 0,98x max.-AV wären das 19,4um/lp und entspräche damit dann 2,9x der Pixelbreite. Das würde also sogar zu gut passen ...

Ein weiterer Punkt ist Dot zu entnehmen: die Auslegung erfolgte nach der kleinsten Wellenlänge (430,5nm, bei CaII-396nm wurde ein Auflösungsverlust in Kauf genommen). Bei RGB-Aufnahmen sollte sich die Auslegung also an dem Blaukanal orientieren.

Ungeklar bleiben trotzdem folgende Punkte:
-Genauer Einfluß des samplings mit flächenhaften Elementen (Pixel).
-Rekonstruktionsfunktion.
-Einfluss der EBV (hier versteckt sich die "Rekonstruktionsfunktion").
Je nach Algorithmus könnte hier evtl. ein anderes sampling sinnvoll sein (Stichworte: mexican-hat vs. wavelets, drizzling, ...).


@Christian:
Das Diagonalargument ist leicht angreifbar. Es existieren nämlich immer genügend Bildpunkte bzw. Punkte an Kontrastübergängen im Originalbild, die in der richtigen parallelen Richtung zu den Pixeln liegen, sodass die Kante hinreichen gut detektiert wird, um später mittels Bildverarbeitung sichtbar gemacht zu werden. Kanten- also Kontrastverläufe sind ja niemals schnurgerade. Außerdem wird durch die Luftbewegungen durch Seeing, für eine Verteilung der Bildpunkte auf dem Chip gesorgt, die dazu führt, dass in unterschiedlichen Bildern immer auch unterschiedliche Lagen vorhanden sind, sodass über die Summe der Bilder eine gute Detailwiedergabe entsteht. Dazu kommt auch noch, dass das Dawes Kriterium schon sehr streng ist. Man sieht also: Es ist keineswegs notwendig, die Diagonale aus Maß zu fordern. Im Mondtutorial wurde es auch nicht gemacht. Zugegebenermaßen ist man natürlich auf der sicheren Seite, wenn man das macht.

In Deiner Argumentation machst Du leider einen Denkfehler. Die Planetenscheibe landet zwar bei der Aufnahme auf unterscheidlichen Positionen auf dem Chip, wird aber von der Software immer wieder in das selbe Pixelraster aufaddiert.
Es wäre etwas anderes, wenn Du die CCD bei der Aufnahme drehen würdest, oder die Software in ein feineres Pixelraster aufaddieren würde (drizzling).
Ohne diese Maßnahmen bleibt das undersampling in Diagonal- vs. xy-Richtung erhalten.


@Arno:
Ich kann da eigentlich nichts theoretisches zu der "Diskussion" beitragen,aber:

zeigt doch mal eure planetenbilder die (eure) Theorien umgesetzt haben.
Das Ergebnis zählt nämlich, nicht die Theorie dahinter.


Siehe z.B.:
http://dot.astro.uu.nl
Multi-wavelength imaging system for the Dutch Open Telescope
F.C.M. Bettonvil, et al.,
Fig. 2: Example of a DOT G-band image

Diese Sonnenaufnahmen an der Grenze der theoretischen Auflösung (0,2") bestätigt genau die theoretische Vorhersage bzgl. Ankoppelung der CCD.


@Gerd:
Dawes ist hier nicht das relevante Kriterium.
Es geht hier nicht um das trennen von Doppelsternen mit mehr oder weniger strengen Anforderungen an die Trennung nach Dawes oder Rayleigh.
Es geht um die Erkennbarkeit von Details und da ist die Auflösung in Linien /mm das relevante Kriterium.
Es ist der Punkt an dem die MTF gegen null läuft also ab dem kein Kontrastunterschied mehr zu erkennen ist und alles zu einer einheitlichen Fläche verschmitzt.

Dawes ist hier nicht völlig daneben, da in Realita zur Detektion eines Kontrastunterschiedes ein gewisser Abstand zu MTF=0 (laut Lit.: wenige Prozent) nötig ist. Dawes liegt bei etwa 98% Prozent der MTF-Max-Aufl. und paßt damit zur Orientierung recht gut.

Laut Abtasttheorem werden 2 Pixel für die Auflösung benötigt.

Es ist interesant, wie immer wieder diese Vereinfachung benutzt wird...
Ist das in unserem Fall überhaupt zulässig?

Das Abtasttheorem besagt nämlich zuerst nur folgendes:
"Ein Signal kann aus seinen Funktionswerten rekonstruiert werden, wenn das Originalsignal keine höhere Frequenzen als die halbe Samplingfrequenz hat."

Keine höheren Frequenzen kann man bei MTF=0 als erfüllt betrachten.
Nur weitere Punkte sind völlig offen:
-Es werden in dem Sinne keine Funktionswerte ermittelt, sondern es wird über das Pixelintervall integriert.
-Wie sieht die Rekonstruktionfunktion aus, mit der aus den Funktionswerten das Signal rekonstruiert wird?

Es gilt also
2* Pixel = N* Lambda
N= 2*Pixel /Lambda
Bei 550nm also 0,55 Mikrometern ergibt sich damit ein Faktor von 2/0,55 = 3,6

Das obige gilt allerdings nur für 1D, bei dem Übergang zur 2D-Chipanordnung muss der Unterschied Chipkante-Chipdiagonale berücksichtigt werden, ansonsten liegt in dieser Richtung eine Unterabtastung vor.

Anstatt Faktor 3,6 wäre also 5,1 (3,6x1,41..) anzusetzen.

Des weiteren muss man für RGB-Aufnahmen als unteres Limit den Blaukanal (hier ca. 450nm) berücksichtigen. Insofern käme noch einmal ein Faktor 1,22 (550nm/450nm) hinzu.

Als Gesamtfaktor ergäbe sich somit 6,2 anstatt 3,6!


Das sind übrigens auch meine Hauptkritikpunkte an dem oft zitierten "Mondtutorial": Nichtberücksichtigung der Pixelgeometrie und der kürzesten Aufnahmewellenlänge.

Ciao Werner
 

Gerd_Duering

Aktives Mitglied
Hallo Werner (blueplanet),

Dawes ist hier nicht völlig daneben, da in Realita zur Detektion eines Kontrastunterschiedes ein gewisser Abstand zu MTF=0 (laut Lit.: wenige Prozent) nötig ist. Dawes liegt bei etwa 98% Prozent der MTF-Max-Aufl. und paßt damit zur Orientierung recht gut.

ja das ist richtig aber dennoch halte ich den Bezug auf MTF für 550nm gegen 0 für absolut ausreichend.
Natürlich kann man mit diversen Feinheiten kommen und das Ganze recht kompliziert manchen.
Einige Dinge sprechen wie die gerade von dir erwähnten 98% der maximalen linearen Auflösung für einen etwas kleineren Faktor, Andere wie der von dir ins Spiel gebrachte Bezug auf 450nm für einen etwas größeren Faktor als 3,6.
Unterm Strich liegt man mit 3,6 aber sehr gut egal wie komplex man die Rechnung macht.

Es ist interesant, wie immer wieder diese Vereinfachung benutzt wird...
Ist das in unserem Fall überhaupt zulässig?
Es ist für unsere Belange absolut ausreichend.
Es geht ja nicht darum auf die zigte Nachkommastelle irgendein Öffnungsverhältnis zu ermitteln welches dann penibelst einzuhalten wäre sondern nur darum um eine grobe Hausnummer zu haben bei welchem Öffnungsverhältnis man so ungefähr landen sollte.


Das obige gilt allerdings nur für 1D, bei dem Übergang zur 2D-Chipanordnung muss der Unterschied Chipkante-Chipdiagonale berücksichtigt werden, ansonsten liegt in dieser Richtung eine Unterabtastung vor.

Anstatt Faktor 3,6 wäre also 5,1 (3,6x1,41..) anzusetzen.

Das ist richtig, in der Diagonalen wäre nicht die Kantenlänge der Pixel sondern deren Diagonale relevant.

In der Senk oder Waagerechten ist es aber die Kantenlänge der Pixel.

Auch hier gilt wieder nicht unnötig kompliziert manchen.
Es ist ausreichend wenn man die Auflösung Senk oder Waagerecht heranzieht.
Wer es noch komplexer will der hat vielleicht keine quadratischen sondern rechteckige Pixel, da hat er dann auch noch in der Senkrechten eine andere Auflösung wie in der Waagerechten.

Des weiteren muss man für RGB-Aufnahmen als unteres Limit den Blaukanal (hier ca. 450nm) berücksichtigen. Insofern käme noch einmal ein Faktor 1,22 (550nm/450nm) hinzu.
Das ist aber eher nur theoretisch so denn das Seeing beeinträchtigt den Blaukanal stärker.
Die Atmosphäre bricht blaues Licht nun mal stärker und demzufolge machen sich auch Turbulenzen stärker im blauen bemerkbar.
Es ist daher eher müßig sich am theoretisch möglichen Auflösungsvermögen des Blaukanals zu orientieren wenn wegen des Seeings der Grün bzw. Rotkanal die feineren Details zeigt.
Sind Details wie bei Mars eh eher rot dann kommt das auch noch dazu und es ergibt sich dann diese Situatioin.

Link zur Grafik: https://fbcdn-sphotos-a-a.akamaihd.net/hphotos-ak-prn2/t31.0-8/10317618_701982836530888_2053319476433028503_o.jpg

Als Gesamtfaktor ergäbe sich somit 6,2 anstatt 3,6!


Das sind übrigens auch meine Hauptkritikpunkte an dem oft zitierten "Mondtutorial": Nichtberücksichtigung der Pixelgeometrie und der kürzesten Aufnahmewellenlänge.

Wie gesagt man kann’s auch kompliziert machen dann müsste man für Details unterschiedlicher Farbe unterschiedliche Wellenlängen annehmen und unterscheiden zwischen der Auflösung Senkrecht Waagerecht und Diagonal.
Ich finde aber man sollte die Kirche im Dorf lassen.
Wie gesagt es geht um eine grobe Hausnummer und keinen Wert der unter allen Umständen auf das genaueste einzuhalten wäre.
Man ist hier schon sehr lange bei Faktor 3,6 der sich auch in der Praxis sehr gut bestätigt.
Es macht keinen Sinn das Rad neu zu erfinden.
Wir müssen uns letztlich auch mal festlegen und es kann nicht jeder mit nem anderen Faktor kommen weil er zb. meint es sind 450nm relevant oder er rechnet mit der Diagonalen oder mit 98% der linearen Auflösung

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:

blueplanet

Aktives Mitglied
Hallo Gerd,

Wie gesagt man kann’s auch kompliziert machen dann müsste man für Details unterschiedlicher Farbe unterschiedliche Wellenlängen annehmen und unterscheiden zwischen der Auflösung Senkrecht Waagerecht und Diagonal.
Ich finde aber man sollte die Kirche im Dorf lassen.
Wie gesagt es geht um eine grobe Hausnummer und keinen Wert der unter allen Umständen auf das genaueste einzuhalten wäre.

meine Ausführungen sind natürlich nur beispielhaft und das Einhalten von Nachkommastellen brauchen wir hier nicht diskutieren!

Aber es ist ein Unterschied, ob sich die "groben Hausnummern" um nahezu den Faktor 2 unterscheiden!

Und hier zeigt eben das Bspl. DOT das die gefundene Ankopplung nicht nur theoretischer Unsinn ist.

Das ist aber eher nur theoretisch so denn das Seeing beeinträchtigt den Blaukanal stärker.
Die Atmosphäre bricht blaues Licht nun mal stärker und demzufolge machen sich auch Turbulenzen stärker im blauen bemerkbar.
Es ist daher eher müßig sich am theoretisch möglichen Auflösungsvermögen des Blaukanals zu orientieren wenn wegen des Seeings der Grün bzw. Rotkanal die feineren Details zeigt.

Bei gutem seeing hatte ich im blauen Kanal übrigens sehr wohl die bessere Auflösung. Das ist also nicht bloss ein theoretisches Argument.

Man ist hier schon sehr lange bei Faktor 3,6 der sich auch in der Praxis sehr gut bestätigt.
Es macht keinen Sinn das Rad neu zu erfinden.
Wir müssen uns letztlich auch mal festlegen und es kann nicht jeder mit nem anderen Faktor kommen weil er zb. meint es sind 450nm relevant oder er rechnet mit der Diagonalen oder mit 98% der linearen Auflösung

Naja, letztendlich kann jeder machen, was er will und seine Aufnahmebedingungen frei wählen. Es gibt ja auch immer wieder Versuche in genau die andere Richtung.
Aber letztendlich ging es doch darum, wie man seine CCD bei optimalen Bedingungen ankoppeln muss, um das Maximum an Bilddetail zu erfassen.
Und da sehe ich den Faktor eher bei 6 als bei 3 (um mal die Nachkommastellen wegzulassen ;-) ). Zahllose gute Pics (5,6um-Pixel, f/30-35) bestätigen das.

Ciao Werner
 

Christian_P

Aktives Mitglied
Hallo Leute


vielen Dank für die rege Beteiligung!



Dass das Dawes Kriterium nun doch nicht ganz unnütz ist, freut mich. Es liegt ja auch auf der Hand wo die Verbindung zum Samplingtheorem bzw. zum Ansatz über die MTF liegt. Komisch, dass da vorher noch keiner drauf gekommen ist.
Zitat von blueplanet:
Direkt bei der Maximalauflösung ist kein Kontrast mehr detektierbar. Insofern wurde 0,98 der Maximalauflösung (zufälligerweise Dawes-Limit) bei einer noch minimalen MTF als oberes Limit gewählt (laut Lit. ist diese Annahme gerechtfertigt).
danke Werner




Die Vielfalt ist doch aber gut. So kann sich jeder sein Modell für seine Bedürfnisse zurechtlegen. Es ist ja nicht so, dass man mit weniger Brennweite als "unter allen erdenklichen Umständen optimal" plötzlich gar nichts mehr abbilden kann.

Fragt sich, wie groß der Unterschied bei sehr guten Bedingungen dann wirklich ist. 10% ? Jedenfalls hängt sehr viel an der EBV und noch mehr am Seeing!



Eine meiner letzten guten Aufnahmen war übrigens mit f/10 bei 5.2µm Pixeldurchmesser. Mars misst nur 11.7". Angebunden war also mit 1.9*P, das Sampling betrug 0.53"/Pixel ;) Zugegeben waren die Bedingungen nicht optimal, was auch ein Grund für das "Experiment" gewesen ist.

Link zur Grafik: http://diffraction.de/astronomy/pictures/planets/Saturn_mars_2014_06_01.jpg




Zurzeit sehe ich es als einen starken Vorteil, bei den Celestron Schmidt-Cassegrains kein weiteres optisches Element in den Strahlengang einbringen zu müssen. Die Anbindung mit 2.8*P ist aber schon recht knapp... Dafür gibt es die maximale Framerate und phänomenal geringe Belichtungszeiten bei der Aufnahme. Das hat doch auch was.



Gruß
Christian




 

Gerd_Duering

Aktives Mitglied
Hallo Werner,

meine Ausführungen sind natürlich nur beispielhaft und das Einhalten von Nachkommastellen brauchen wir hier nicht diskutieren!

schön aber dann ist es auch unerheblich ob man mit dem linearen Auflösungsvermögen arbeitet oder mit 98% davon denn da ginge es ja letztlich um Kommastellen.

Aber es ist ein Unterschied, ob sich die "groben Hausnummern" um nahezu den Faktor 2 unterscheiden!

Aber nur dann wenn man ein Extrem betrachtet das nicht unbedingt praxisgerecht ist.
Es geht nicht immer nach dem Motto viel hilft viel und man muss auch nicht immer das absolute Extrem betrachten wenn man einen guten Kompromiss finden will.
Ja genau Kompromiss denn es geht letztlich auch um Belichtungszeiten bzw. Bildraten und Verstärkungseinstellungen.
Je größer der Abbildungsmaßstab desto dunkler das Abbild, es bringt nichts mit Faktor 6,2 zu arbeiten und dann die Verstärkung aufdrehen zu müssen bis das Rauschen jeglichen Auflösungsvorteil zerschießt oder sehr geringe Bildraten einstellen zu müssen.

Man kann visuell auch beliebig in die Übervergrößerung gehen und mit winziger AP beobachten.
Auch hier scheiden sich die Geister und jeder setzt eine Andere AP für die Förderliche Vergrößerung an
Auch hier geht einem aber bei Übertreibungen das Licht aus.

Naja, letztendlich kann jeder machen, was er will und seine Aufnahmebedingungen frei wählen. Es gibt ja auch immer wieder Versuche in genau die andere Richtung.
Aber letztendlich ging es doch darum, wie man seine CCD bei optimalen Bedingungen ankoppeln muss, um das Maximum an Bilddetail zu erfassen.

Ganz genau man muss das auch etwas ausprobieren.
Da können je nach Seeing und auch für unterschiedliche Planeten durchaus unterschiedliche Werte optimal sein.

Und da sehe ich den Faktor eher bei 6 als bei 3 (um mal die Nachkommastellen wegzulassen ;-) ). Zahllose gute Pics (5,6um-Pixel, f/30-35) bestätigen das.

Na ja die f/30 oder noch extremer resultieren wohl doch eher aus der Tradition heraus als man noch mit chemischen Film oder CCDs mit sehr großen Pixeln gearbeitet hat.
Leider macht sich kaum einer die Mühe um mal den heute wesentlich kleineren Pixeln Rechnung zu tragen und passt diese Extremen Öffnungsverhältnisse an seinem Aktuellen CCD an.

Mag sein das es darum zahllose gute Pix gibt die bei f/30 entstanden sind aber das heißt nicht das es mit f/20 nicht auch genauso gut gegangen wäre.

Hier kommt zb. einer in der Praxis zu einem ganz anderem Ergebnis wie Du.

http://forum.astronomie.de/phpapps/...s/552651/8_3_m_Pixelweite_bei_f_20#Post552651

Aus der hier gezeigten Gegenüberstellung entnehme ich, dass man bei f/20 auch mit 8,3 µm Pixeln und Nachvergrößerung auf 150% das Auflösungsvermögen des Teleskops weitestgehend ausnutzen kann. Die Verwendung von Kameras mit kleineren Pixeln bedeutet bei f/20 daher in meinen Augen ein nicht unbedingt erforderliches „Oversampling“.

Er sieht bei 8,3 my Pixeln N 20 also als ausreichend, das wäre Faktor 20/8,2 = 2,4.
Das ist eine Praxiserfahrung meilenweit von deinem Faktor 6,2 entfernt.

Grüße Gerd
 

Haramir

Aktives Mitglied
Hallo,

um mal eine praktischen Nutzen aus diesem Thread zu ziehen, wenn die Experten sich hier schon versammeln.

Ist F18 für die DMK21 ausreichend ?

Gruß Jens
 

Gerd_Duering

Aktives Mitglied
Hallo Jens,


nicht ganz, sie hat 5,6 µm Pixel.

http://www.theimagingsource.com/en_US/products/cameras/usb-ccd-mono/dmk21au04/

damit sollte man mindestens N20 haben
N min = 3,6 x Pixel
N min = 3,6 x 5,6
N min = 20,2

Aber zb. für so ein Extrem wie die DFK72AUC02 mit gerade mal 2,2µm Pixeln würden schon N8 völlig ausreichend sein. :eek:

http://www.teleskop-express.de/shop...er-Mond-Planeten-Mikroskop---2-2-m-Pixel.html

N min = 3,6 x Pixel
N min = 3,6 x 2,2
N min = 7,9

Grüße Gerd
 

Christian_P

Aktives Mitglied
Zitat von Haramir:
hallo Jens

klar ist das ausreichend. Viele tun sich glaube ich aber schwer damit, einen "Mini-Jupiter" zu bearbeiten. Es geht aber und man erhält erstaunliche Resultate.

Mit f/18 liegst du wirklich gut. Da muss das Seeing schon wie in Barbados sein um da vielleicht (vielleicht 10% !) nennenswert was zu verlieren. Ich denke auch du fragst, weil du das Setup bei dir erst mal so "optimiert" hast. Ich finde jeder sollte immer erst mal das ausprobieren, was er an Setup da hat und nicht zwanghaft meterweise Brennweite hinten rankloppen, nur weil er das so toll findet. Machen aber viele Neulinge. Ich weiß auch nicht warum.





Viele Grüße
Christian
 

Gerd_Duering

Aktives Mitglied
Hallo Jan,

nach meiner Erfahrung bist Du da mit dem 5,6 µm Pixelraster Deiner DMK schon gut auf der sicheren Seite! Ich arbeite seit Jahren mit 3,75 µm bei f/11 - siehe Avatar und Website.
ich nehme mal an es handelt sich da um deinen f/5 Spiegel mit der 2,2 fach Klee Barlow.
Da hatten wir vor geraumer Zeit schon mal drüber diskutiert.
Was mir aber hierzu noch eingefallen ist wäre der tatsächliche Verlängerungsfaktor der Barlow in deinem Setup.
Es steht zwar 2,2 auf der Barlow aber das ist nur dann der Fall wenn diese exakt im vorgesehenen Arbeitsabstand betrieben wird.
Und da wäre ich mir nicht so sicher ob sich der Chip deiner DMK auch wirklich exakt in diesem Abstand vom Barlowelement befindet.

Mechanisch sind Barlows in der Regel so ausgelegt das der Fokus bei der Auflagefläche zu liegen kommen sollte damit der Arbeitsabstand passt.
Da liegt in der Regel auch die Feldblende von Okularen.
Der Chip deiner DMK liegt aber nicht dort.
Das Gehäuse hat eine gewisse Bautiefe und der Arbeitsabstand der Barlow vergrößert sich damit um den Weg von der Anschlagfläche der 1,25“ Hülse bis zum Chip.
Der Barlowfaktor steigt damit.

Die Klee ist sehr kurzbauend und hat damit eine geringe Brennweite so das sich der verlängerte Arbeitsabstand schon spürbar auswirken dürfte.
Ich schätze mal das du irgendwo zwischen Faktor 2,5 und 3 liegen wirst.
Damit würde das Öffnungsverhältnis für dein Setup dann irgendwo zwischen f/12,5 und f/15 liegen.
Damit würdest du den von mir für das empfohlene Öffnungsverhältnis verwendeten Faktor von 3,6 x Pixel recht gut bestätigen.
Da käme ja dann N13,5 raus und es kann sehr gut sein das dein Setup auch so in etwa bei dieser Öffnungszahl liegt.

Die 3,6 sind ja nicht meine Erfindung sondern die sind in der Literatur zu finden und erfahrene Planetenfotografen arbeiten auch damit.

http://www.sbig.de/universitaet/glossar-htm/sampling.htm

Oversampling
Bei Mond/Planetenaufnahmen mit Webcams oder CCD Kameras kann es durchaus sinnvoll sein, die Aufnahmen zu "oversamplen". Hier gilt jedoch der Grundsatz, dass eine Steigerung der Brennweite ins "Unermessliche" auch nicht sinnvoll ist, sondern es ist ein Kompromiss zwischen Brennweite und Bildhelligkeit (und damit der Belichtungszeit) zu erreichen.

Stefan Seip, einer der erfolgreichsten deutschen Planetenfotografen gibt zur Brennweitenberechnung folgende Formel an:
N < d_pixel ÷ (0.51 × lambda)


wobei
N = Öffnungsverhältnis für eine beugungsbegrenzte Abbildung,
d_pixel = Kantenlänge eines Pixels und
lambda = Wellenlänge des Lichtes bedeutet.

N < d_pixel ÷ (0.51 × lambda)
Für 550nm = 0,55µm ergibt sich also

1/ (0,51*0,55µm) = 3,56
N = Pixel*3,56 also rund 3,6
So wie schon von mir hergeleitet.

Zitat von Gerd_Duering:
Lineare Auflösung = 1/ (N* Lambda)

Laut Abtasttheorem werden 2 Pixel für die Auflösung benötigt.

Es gilt also
2* Pixel = N* Lambda
N= 2*Pixel /Lambda
Bei 550nm also 0,55 Mikrometern ergibt sich damit ein Faktor von 2/0,55 = 3,6

Die 3,6 beruhen ja auf dem linearen Auflösungsvermögen und damit das auch Hand und Fuß.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:

blueplanet

Aktives Mitglied
Hallo,

@Gerd:

Aber nur dann wenn man ein Extrem betrachtet das nicht unbedingt praxisgerecht ist.
Es geht nicht immer nach dem Motto viel hilft viel und man muss auch nicht immer das absolute Extrem betrachten wenn man einen guten Kompromiss finden will.
Ja genau Kompromiss denn es geht letztlich auch um Belichtungszeiten bzw. Bildraten und Verstärkungseinstellungen.
Je größer der Abbildungsmaßstab desto dunkler das Abbild, es bringt nichts mit Faktor 6,2 zu arbeiten und dann die Verstärkung aufdrehen zu müssen bis das Rauschen jeglichen Auflösungsvorteil zerschießt oder sehr geringe Bildraten einstellen zu müssen.

f/30-35 bei 5,6um-Pixel ist noch kein Extrem, bei >f/50-60 würde ich von Extrem sprechen. Denn selbst bei f/40 und meiner uralt-Philips ToUCam waren die von Dir beschriebenen Probleme bei z.B. den Standardplaneten nicht bedeutend. Bei neueren, empfindlicheren Cams ist das noch weniger relevant.
Ganz abgesehn davon hat das DOT, trotz vergleichbarer Situation (wenig Photonen wegen engbandiger Filterung, nur 13fps, sogar weniger empfindliche Cams) mit dieser "extremen Ankopplung" auch keine Probleme.

Außerdem ist keiner gezwungen stur an diesem Wert festzuhalten, er dient lediglich zur Orientierung, was man ungefähr bei bestem seeing wählen sollte. Bei guten seeing sehe ich allerdings kaum einen Grund, warum man nicht die optimale Ankopplung wählen sollte. Theorie und Praxis (unvermeidlicherweise leider selten) bestätigen das in meinen Augen.

Und da sehe ich den Faktor eher bei 6 als bei 3 (um mal die Nachkommastellen wegzulassen ;-) ). Zahllose gute Pics (5,6um-Pixel, f/30-35) bestätigen das.

Na ja die f/30 oder noch extremer resultieren wohl doch eher aus der Tradition heraus als man noch mit chemischen Film oder CCDs mit sehr großen Pixeln gearbeitet hat.
Leider macht sich kaum einer die Mühe um mal den heute wesentlich kleineren Pixeln Rechnung zu tragen und passt diese Extremen Öffnungsverhältnisse an seinem Aktuellen CCD an.

Jetzt muss ich mich aber wundern, dieser thread und auch meine Ausführungen tragen eben genau dem Rechnung!
Es ist eine ernsthafte und fundierte Ableitung, die einem einen Anhaltspunkt geben soll, wie man seine Cam UNTER BERÜCKSICHTIGUNG DER PIXELGRÖSSE (!) an das Scope ankoppelt, um bei besten Bedingungen auch möglichst alle Details aufzuzeichnen.
Und wie man eben an AKTUELLEN Pics sieht, erreicht man bei genau dieser Ankopplung auch in der Praxis SEHR gute Resultate!

Hier kommt zb. einer in der Praxis zu einem ganz anderem Ergebnis wie Du.

http://forum.astronomie.de/phpapps/...s/552651/8_3_m_Pixelweite_bei_f_20#Post552651

Aus der hier gezeigten Gegenüberstellung entnehme ich, dass man bei f/20 auch mit 8,3 µm Pixeln und Nachvergrößerung auf 150% das Auflösungsvermögen des Teleskops weitestgehend ausnutzen kann. Die Verwendung von Kameras mit kleineren Pixeln bedeutet bei f/20 daher in meinen Augen ein nicht unbedingt erforderliches „Oversampling“.

Er sieht bei 8,3 my Pixeln N 20 also als ausreichend, das wäre Faktor 20/8,2 = 2,4.
Das ist eine Praxiserfahrung meilenweit von deinem Faktor 6,2 entfernt.

Danke, ich kenne diesen thread und den Standpunkt zur Genüge und hatte diesbezgl. auch schon ausreichend Diskussionen. Diese experimentellen Ergebnisse bzgl. kurze Brennweite/große Pixel beweisen im Endeffekt nichts, da es neben der Ankopplung, gelinde gesagt, viele weitere diskussionswürdige Punkte gibt.
Aber ich werde das hier jetzt nicht noch einmal wiederholen.

Wenn man schon kurze Brennweiten/größere Pixel bevorzugt, dann sollte man auch konsequent sein und die nachfolgende Bildverarbeitung, die dann allerdings wesentlich aufwendiger wird, anpassen (evtl. antialiasing?, drizzling, ...).
In dem Fall würde das Gesamtkonzept evtl. durchaus Sinn machen. Aber einfach nur immer kürzere Brennweiten/größere Pixel mit Hinblick auf kürzeste Belichtungzeiten und max. frameraten zu propagieren, ohne die Nachteile und Auswirkungen dieser Strategie zu erkennen, macht keinen Sinn.

In dem Zusammenhang ist bisher übrigens auch noch keiner auf den wichtigen Punkt der EBV bzgl. sampling eingegangen. Je nach verwendetem Algorithmus kann nämlich auch aus diesem Grund ein anderes/höheres sampling durchaus Sinn machen (Rekonstruktionsfunktion(wavelets, mexican-hat, ...), resampling auf Softwareseite, Artefaktbildung, Rauschfilterung, ...).


@Werner(Ifrit):
Ein Kommentar bzgl. was passiert, wenn man die Funktionswerte nicht punktuell abtastet (eigentliches Abtasttheorem), sondern flächenmässig (CCD-Pixel) erfasst: als Folge der flächenmässigen Integration geht Modulation (Kontrast) verloren (Maxima werden erniedrigt und Minima erhöht) und das Signal verbreitert sich. Auch ein Grund für kleinere Pixel (natürlich bei einer noch vernünftigen SNR).


Abschließend folgende Zusammenfassung:
Die oben skizzierte Theorie und die praktischen Erfahrungen an einem quasi nicht seeing-limitierten Gerät deuten auf eine optimale CCD-Ankopplung (Ausnutzund des ges. VIS-Bereiches, z.B.: RGB-Aufnahmen) von etwa

Pixelgröße(um) = N/6,2.

Der entscheidende Unterschied zu der Ankopplung mit dem Wert 3,6 besteht in der Berücksichtigung der Wellenlänge bei Aufnahmen im Blaukanal und in dem unterschiedlichen sampling in Diagonal- vs. Horizontal-/Vertikalrichtung.
Wie eben die Auslegung des DOT zeigt ist dieser Unterschied offensichtlich relevant.
Im Gegensatz zu einer Ankopplung bei einem geringeren Wert ist damit zumindest theoretisch sichergestellt, dass man auch alle Details erfasst.


Ciao Werner
 

Jan_Fremerey

Aktives Mitglied
Hallo Gerd,

Dank Dir für Deine aus technischer Sicht gewiss plausibel erscheinende Herleitung, wobei Du ja offensichtlich von dieser Voraussetzung ausgehst:

Zitat von Gerd_Duering:
Der Chip deiner DMK liegt aber nicht dort.
Diese Voraussetzung trifft aber NICHT zu, denn ich habe das Gehäuse der 2,2x Klee-Barlow am hinteren Ende genau um das Auflagemaß meiner Kameras abdrehen lassen. Somit liegt der Kamerachip tatsächlich genau in die Ebene des ungekürzten Barlow-Gehäuses, und der Verlängerungsfaktor ist 2,2-fach entsprechend der Koma-kompensierenden Auslegung von Herrn Klee. Den Verlängerungsfaktor konnte ich später durch eine sehr genaue Bestimmung der Kamera-Auflösung meines Setups bestätigen.

Die Ankopplung meiner beiden Kameras (Chameleon und ASI120MM) mit jeweils 3,75 µm Chipraster liegt demnach defnitiv bei f/D = 2,9*p/µm, und ich sehe keinen Anlass, von 10" Öffnung mehr zu erwarten, als die in zahlreichen unter optimalen Sichtbedingungen gewonnenen Mond- und Planetenaufnahmen bislang mit dem Setup erzielte Detailauflösung. Wer da anderer Meinung ist, kann vielleicht auf entsprechende Bildergebnisse anderer Autoren verweisen.

Gruß, Jan
 

Haramir

Aktives Mitglied
Hallo,

vielen Dank für die Infos.
Naja so klein ist der Jupiter bei ca. 5200 mm Brennweite bei F18 nun auch nicht :)

Meine Barlow ist eigentlich eine 2 fach Barlow. Wenn ich mein Jupiter aber in WinJupos registriere, meint WinJupos unter Eingabe meiner Konfiguration, ich belichte mit F18.
Ich denke Win Jupos errechnet das anhand der Größe der Planetescheibe.

Meine Überlegung ist jetzt, ob ich mit einer guten 3fach Barlow vielleicht optimaler sample, das wären dann aber schon knapp F30, Dazu dann ein IR Sperrfilter. Das kann sich dann schon ungünstig auf die Belichtungszeit der DMK auswirken. Mit der 2 fach Barlow kann ich gerade noch mit maximalen fps arbeiten, bei Einsatz eines IR Sperrfilter für die Luminanz.

Gruß Jens

 
Status
Es sind keine weiteren Antworten möglich.
Oben