Grenznutzen Teleskop-Öffnung?

Status
Es sind keine weiteren Antworten möglich.

Astromusi

Aktives Mitglied
Liebe Astro-Freundinnen und -Freunde

ich bin seit ca. 2003 mit Astrofotografie beschäftigt und hatte mich bislang nicht getraut in dieser Community zu argumentieren, doch mit dem technischen Fortschritt (digital usw.) konnte selbst ich ein paar fotografische Erfolge erzielen...

Ich frage mich aber immer öfter, wie groß die Teleskop-Öffnung sein sollte?

Unser Hobby ist sicher etwas "männerlastig". Daher scheinen die großen Rohre mit den dicksten Komponenten am meisten geschätzt zu werden...
Ob Refraktor oder Newton-Korrektor; die Dinger bilden (wenn sie gut sind) etwa 5mü Spotsize ab.
Die Atmosphäre bietet selten besseres Seeing als 1", nach meinen Erfahrungen ist es i.d.R. schlechter, aber um für diesen erhofften theorethischen Idealfall gerüstet zu sein, ergäbe sich nach m.E. bei 5mü eine Brennweite von ca. 1m, um die 1" abzubilden.
Die Auflösung ist aber auch von der Teleskop-Öffnung abhängig. Der Einfachheit halber würde ich für diesen Fall etwa 10cm annehmen, was eine Blende von f10 ergäbe.

Wenn man nun eine "schnellere" Optik bei gleicher Brennweite nimmt, z.B. 20cm (=f5) wird sich die Belichtungszeit wohl verkürzen.
Auf der anderen Seite habe ich eine theoretische Auflösung gemäß Teleskop-Öffnung von deutlich <1", die aber nicht mehr zum Tragen kommen kann.
Wie weit kann/sollte man dieses Spiel treiben?

Ein 16-Zoll-Newton mit f2,5 würde theoretisch noch viel mehr auflösen (<0,5"), aber wg. der Korrektor-Spotsize nicht bei 1m sondern deutlich darüber... und schon hat man eine andere Blende/Bildausschnitt/Belichtungszeit und noch ein viel praktischeres Problem: Wie viel Leistungsreserven hat die Montierung beim Guiding?

Würde denn nicht einfach eine Teleskop-Öffnung, die etwas besser als das am Standort wetterbedingte Seeing ist, reichen um alles abbilden zu können, was der Himmel hergibt?
 
Hallo,

bei Langzeitbelichtung kannst Du mit mehr Öffnung kürzer belichten, also Vorteil unabhängig von der Auflösung. Einige Foto-Teleskope nutzen das aus und machen keine beugungsbegrenzten Spots sondern nur solche, die halbwegs mit üblichen Sensorauflösungen zusammenpassen.

Visuell sieht man oft und öfter als nur Momentweise Strukturen kleiner als eine Bogensekunde und der bessere Kontrast bei größerer Öffnung ist auch dann noch ein Vorteil. Blendung muss man im Griff haben.
Es gibt ja ein paar wenige Teleskope jenseits 1m Öffnung, mit denen man mal zu Beobachtungen kommen kann. Da kann man diese Seite der Medaille zu einer eigenen Erfahrung machen.

Clear Skies
Sven
 
Hallo,
Bei einer Verdopplung der Öffnung bei gleicher Brennweite beträgt die benötigte Belichtunszeit nur ein Viertel. Die ist nicht zu unterschätzen. Besonders bei Schmalbandaufnahmen. Auch die erhöhte Auflösung ist besonders bei üblichen Objektivdurchmessern bei einigermassen gutem Seeing durchaus sichtbar.

Im Prinzip bestimmen die gewünschte Brennweite und die gewünschte maximale Belichtungszeit die benötigte Öffnung.

Jedes Fernrohr hat hier seinen Himmel was die Brennweite angeht, Objekte gibt es für ( fast) jede Brennweite.

Je höher die Brennweite desto höher der Anspruch an die Montierung und Nachführung.

Viele Grüße,

Stephan
 
hallo,

die fotografische Auflösung in µm wird allein durch das Öffnungsverhältnis bestimmt. Je schneller die Optik, desto kleiner das Beugungsscheibchen (jetzt mal Spotsizes unperfekter Optiken aussen vor gelassen). Und je schneller, desto mehr Signal hat man von flächigen Objekten am Chip.

Klar, die ESO baut grad einen 39m Eumel auf einen Berggipfel, das funktioniert sinnvoll nur mit entsprechenden Zusatzteilen wie aktive Optik etc. Wir Amateure können heute aber durch Software auch einiges an Schärfe rauskitzeln, sogar besser als das Seeing an und für sich erlaubt. Das erfordert aber einige Praxis in der digitalen Dunkelkammer, kann man also nicht ohne Vorbehalt sagen.

Ich persönlich habe sehr gute Erfahrungen mit 1000mm f/4 und 3,8µ Pixeln - Pixelscale 0,78" pro Pixel - man ist schon deutlich im oversampling, aber kann durch Deconvolution nach PSF Modell der Sterne im Summenbild an ein scharfes Bild nahe herankommen. Ähnlich wie wir es bei Planeten schon lange machen. zum Beispiel:
https://www.astrobin.com/338105/

Bei Bildern mit noch kleinerer Pixelscale sehe ich keinen Gewinn an Details mehr, aber oft Probleme wegen dem schlechteren S/N Verhältnis weil das
Öffnungsverhältnis meist langsamer ist. Es mag Ausnahmefälle geben, aber die sind sicher nicht die Regel und daher nicht zu empfehlen.

lg Tommy
 
"bei Langzeitbelichtung kannst Du mit mehr Öffnung kürzer belichten"

Hallo,

Wenn die Brennweite im Vergleich kleiner wird, mag das stimmen.

Generell wird aber die Belichtungszeit durch das Öffnungsverhältnis bestimmt.
Ferner auch durch die Fullwell Capacity.

Beispiel: Aufnahmen von Kugelsternhaufen

Hier wird man für die Auflösung des Kernbereichs i.d.R. kürzere Belichtungszeiten fahren, über Überbelichtungen zu vermeiden. Für die Randregionen entsprechend längere Belichtungszeiten (Sättigung). Im einfachsten falle wird man ein HDR-Komposit machen.

Das Oversampling, was Tommy anspricht ziehlt m.E. auf die Abbildung eines Sterns unter Seeing-Einflüssen ab. Sampling ist immer eine Frage der Konvention. Nyquist passt hier in diese Thematik nicht hinein.

So manchen planetarischen Nebel wird man mit entsprechender Pixelgrösse auch noch feiner Auflösen können, da man durch den Durchsatz an Aufnahmen schon im Bereich des Lucky-Imaging arbeitet.

Für mich ist das kein Ausnahmefall, denn dieses Prinzip für schwächere Regionen anzuwenden ist ja theoretisch nicht ausgeschlossen, scheitert aber am entsprechenden Durchsatz bzw. der Ausbeute an Aufnahmen in den verfügbaren Zeiträumen.

Man kann halt durchaus schnell 7000 Aufnahmen mit kurzer Belichtungszeit machen (30 sec). Man stelle sich vor, die Einzelaufnahme würde 15 Minuten benötigen.

Sicherlich spielen dann noch weitere Einflüsse bei der Langzeitbelichtung eine Rolle, wie die Qualität der Nachführung, usw.
Kurz: Die Jagd nach der optimalen Auflösung hat man viel mehr Parameter zu berücksichtigen, wie in durchaus vereinfachten Darstellungen diskutiert werden.
Dazu kommt noch, daß sich während der fotographischen Beobachtungen diese Parameter auch ändern können.

Grüße,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:
Moin zusammen,

Zitat von Astromusi:
Würde denn nicht einfach eine Teleskop-Öffnung, die etwas besser als das am Standort wetterbedingte Seeing ist, reichen um alles abbilden zu können, was der Himmel hergibt?

wenn das so wäre, gäbe es vermutlich genau ein Teleskop, das alle Astrofotografen einsetzen würden...

Die Crux an der Sache ist die Winkelausdehnung der Objekte am Himmel. Es gibt durchaus Nebel, SN-Überreste die selbst bei "geringer" Brennweite und großem Sensor kaum auf das Bildfeld einer Einzelaufnahme passen, andersherum gibt es Galaxien, PNs, ... die selbt bei 2.000mm Brennweite nur wenige Quadratpixel "groß" sind.
Es kommt also meiner Meinung nach weniger auf die maximale Auflösung an (im weiteren Sinne also auch die Öffnung des Teleskops) sondern auf das passende Bildfeld und entsprechenden Abbildungsmaßstab von Bogensekunden/Pixel an.
Hier: https://13parsec.de/index.php/einsteiger-guide/astro-rechner findest du auch mal einen Vergleich von 3 verschiedenen Teleskopen/Objektiven mit einer und der selben Kamera an ein und dem selben Objekt.
 
Hallo Tommy,

Ich persönlich habe sehr gute Erfahrungen mit 1000mm f/4 und 3,8µ Pixeln - Pixelscale 0,78" pro Pixel - man ist schon deutlich im oversampling,

bezüglich Sampling kommt es allerdings sehr darauf an auf was du dich beziehst.
Du beziehst dich hier auf das ganze Beugungsscheibchen so wie es für DS Fotografie auch üblich ist.
Da will man ja einfach möglichst kleine Sterne und NICHT das bestmögliche Auflösungsvermögen.

Hier haben wir aber über das Auflösungsvermögen diskutiert und da muss man sich natürlich bezüglich Sampling auch darauf beziehen.
Dieses ist aber wie du weist um Faktor 2,44 besser als die Größe des BS denn das Auflösungsvermögen errechnet sich zu Lambda /D während die Größe des BS sich zu 2,44 x Lambda/D errechnet (in Radiant).
Bezieht man sich auf das Auflösungsvermögen bist du also mit deinem Setup drastisch im undersampling so wie es für DS Fotografie auch üblich ist.
Man kann das ja sehr einfach anhand der Öffnungszahl und der Pixelgröße erkennen.
Bezüglich Auflösung ist hier laut Nyquist-Shannon-Abtasttheorem für die Öffnungszahl ein Faktor von 3,6 zur Pixelgröße nötig.

Du müsstest also bei 3,8µ Pixeln mindestens eine Öffnungszahl von N = 3,6x3,8 = 13,68 also rund N14 haben um das volle Auflösungsvermögen der Öffnung mit deinem Sensor auch nutzen zu können.

Ich habe den Zusammenhang hier auch mal in der Praxis überprüft.

http://forum.astronomie.de/phpapps/ubbthreads/ubbthreads.php/topics/1139934/Aufl%C3%B6sungsverm%C3%B6gen_und_Samplin

Herausgekommen ist folgender Zusammenhang zwischen Bildauflösung und dem Faktor der Pixelgröße für die Öffnungszahl.

Link zur Grafik: http://forum.astronomie.de/phpapps/ubbthreads/ubbthreads.php/ubb/download/Number/38856/filename/Diagramm.jpg

Du nutzt mit deinem Setup (N4 und 3,8µ Pixel) bezüglich Auflösungsvermögen also lediglich 4/13,68 = 0,292 der Öffnung. :eek:
Mit anderen Worten 250mm x 0,292 = 73mm Öffnung würden ausreichen um bei 1000mm Brennweite die gleiche Bildauflösung zu erreichen.
Nur hätte man bei 73mm Öffnung und 1000mm Brennweite eben N13,7 und müsste 13,7^2/4^2 = 11,7 mal so lange belichten wie du mit den N4.

Damit würde bei vielen DS Objekten die Belichtungszeit natürlich völlig aus dem Ruder laufen aber es gibt durchaus DS Objekte mit hoher Flächenhelligkeit bei denen man auch mit N14 durchaus sinnvoll arbeiten kann.
Ich denke da zb. an helle Planetarische Nebel wie M57.
Hier wäre mit einem kleinen ED72 und einer Barlow die ihn auf 1000mm Brennweite bringen würde bei entsprechend längerer Belichtungszeit mit dem gleichem Sensor eine vergleichbare Bildauflösung möglich wie du mit 250mm Öffnung und ebenfalls 1000mm Brennweitre mit dem selben Sensor erreichen würdest.
Mag sein das das Signal/ Rauschverhältnis beim kleinen ED72 dann etwas schlechter wäre und dass darunter auch die Bildauflösung etwas leidet aber das liegt dann ja nicht an der Beugungsgrenze der Öffnung sondern am Sensor und der Bildbearbeitung.

Grüße Gerd
 
Hallo Gerrit,

Das Oversampling, was Tommy anspricht ziehlt m.E. auf die Abbildung eines Sterns unter Seeing-Einflüssen ab. Sampling ist immer eine Frage der Konvention. Nyquist passt hier in diese Thematik nicht hinein.

dem ersten Teil kann ich nur zustimmen aber natürlich passt Nyquist trotzdem immer.
Es kommt halt nur darauf an auf was man sich beim Sampling bezieht.
Es gibt hier ja prinzipiell 3 Möglichkeiten.

Möglichkeit 1 die Halbwertbreite neudeutsch auch FWHM genannt für das Seeing.
Möglichkeit 2 das Beugungsscheibchen.
Möglichkeit 3 das Auflösungsvermögen.

Der DS Fotograf bezieht sich in der Regel auf Möglichkeit 1 oder 2 je nach dem was größer ist.
Der will halt möglichst kleine Sterne und darum nimmt er auch beim Sampling auf die Sternabbildung Bezug.
Und er will natürlich das die Belichtungszeiten im Rahmen bleiben weshalb man allein schon deshalb in der Regel nicht das Auflösungsvermögen als Bezug für das Sampling nimmt.

Der Planetenfotograf will aber maximale Auflösung und bezieht sich beim Sampling daher natürlich auch auf das Auflösungsvermögen das die Öffnung hergibt.
Und Planeten sind hell genug so das man keine Zugeständnisse wegen der Belichtungszeit machen muss also mit hohen Öffnungszahlen problemlos arbeiten kann.

Gehen wir das mal im Einzelnen durch.
Bezug zum Beugungsscheibchen.
Laut Nyquist muss sich dieses also auf 2 Pixel verteilen.
Bei N10 wäre das BS 2,44 x0,55 µm x10 = 13,42 µm groß.
Die Pixelgröße laut Nyquist müsste also 13,72/2 = 6,71 µm betragen.
Mit dem 3,8 µm Sensor würde der DS Fotograf mit Bezug auf das BS also von oversampling sprächen.

Bezug zum Auflösungsvermögen.
Laut Nyquist muss sich dieses also auf 2 Pixel verteilen.
Bei N10 wäre das Auflösungsvermögen 0,55 µm x10 = 5,5 µm.
Oder in Linien/mm 1/0,0055mm = 181,8 L/mm.
Die Pixelgröße laut Nyquist müsste also 5,5/2 = 2,75 µm betragen.
Mit dem 3,8 µm Sensor würde der Planetenfotograf mit Bezug auf das Auflösungsvermögen also von undersampling sprächen.

Man muss also immer auf den Bezug achten!
Aber Nyquist gilt immer!
Lustig wird es nur wenn der DS Fotograf mit Bezug auf das Beugungsscheibchen dem Planetenfotograf einreden will er sei mit seinem Setup im oversämpling und dabei vergisst das für diesen ja der Bezug zum Auflösungsvermögen relevant ist.

Grüße Gerd
 
Hallo Gerd,
Nyquist gilt immer? Einer der Hauptfehler ist doch gewiss, daß man aus einer Ungleichung eine Gleichung macht. In der Gleichung berechnet man die Nyqvist-Rate, die aber nicht die optimale Sampling-Rate sein muß. Sondern lediglich eine Schranke.

Aber:
Jetzt bin ich zum einen gespannt, wie Du erklärst worauf es ursprünglich bezogen wurde? Wie Du die Übertragbarkeit argumentierst?
Besten DAnk und Gruss,
Gerrit



 
Zuletzt von einem Moderator bearbeitet:
Hallo Gerrit und Gerd,

ihr meint das Nyquist-Shannon-Abtastheorem. Das gilt für Signale mit einer endlichen Anzahl von Fourierkoeffizienten (also Frequenzen) und wurde eigentlich für eindimensionale Signale formuliert. Streng genommen gilt es also fast nie, ist aber eine gute praktische Näherung für die meisten Signale und auch mehrdimensionale Funktionen wie bunte Bilder.

Also, das Nyquist-Kriterium gilt immer für den Bereich, für den es gilt :)

Soviel zum Klugscheißerlewettbewerb.

Gruß

*entfernt*
 
"Das gilt für Signale mit einer endlichen Anzahl von Fourierkoeffizienten (also Frequenzen) und wurde eigentlich für eindimensionale Signale formuliert. Streng genommen gilt es also fast nie, ist aber eine gute praktische Näherung für die meisten Signale und auch mehrdimensionale Funktionen wie bunte Bilder."

Lieber Gerd, lieber Heiko, genau hier liegt die Spitzfindigkeit :) Und in der Interpretation, was denn jetzt die Bandbegrenzung sein soll. Die ohnehin das Ergebnis einer Konvention und weniger das Resultat eines mathematischen Beweises ist.
Ich muß mich dafür auch nicht stundenlang in Foren zanken. Deswegen ist mir Gerd auch keinen Beweis oder Rechenschaft schuldig.
CS,
Gerrit

 
Hallo Gerrit,

ja, Nyquist wird oft mit der nötigen Anzahl Sensorpixeln gleichgesetzt um eine Struktur aufzulösen. Aber so einfach ist es ja nicht. Stelle Dir eine scharfe Kante vor. Links weiß, rechts schwarz. Im Idealfall reichen Dir zwei Pixel um das zu zeigen - links weiß, recht schwarz - könnte man denken. Aber um die scharfe Kante in einer Fourierzerlegung darzustellen, bräuchtest Du eine unendliche Zahl an Fourierkoeffizienten um die Kante im Frequenzbereich darzustellen. Die genaue Position der Kante ist nämlich nicht genau definiert. Was ich damit sagen will, man kann nicht immer aus der Breite einer Struktur (Beugungsscheibchen) auf die minimale Pixelbreite zu deren Auflösung schließen. Vor allem wenn die Struktur scharf begrenzt ist. Auch ein Beugungsscheibchen will aufgelöst sein.

Gruß

*entfernt*
 
Hallo Gerrit,

das Nyquist nur ein Anhaltspunkt ist und nicht das ultimative allein seligmachende Kriterium das man exakt bis zur x ten Nachkommastelle einhalten muss ist natürlich klar.
Das kann schon deshalb nicht sein weil es immer eine fließende Entwicklung gibt bei der die Auflösung immer langsamer gegen das Maximum läuft je näher man an selbiges rankommt.
Es gibt keinen exakten Punkt bei dem ein Schalter umgelegt.

Leider scheint die menschliche Natur sich mit so unscharfen Aussagen nicht so recht zufriedenzugeben. Man will unbedingt den einen Punkt den man bis zu zig Nachkommastellen exakt berechnen kann und der soll dann die ultimative Aussage machen.
Die Natur pfeift aber auf diesen Wunsch und stellt uns vor Zusammenhänge die nur unscharfe Aussagen zulassen.
Ganz egal wie sich der Mensch dann anstrengt und wie kompliziert er das Ganze dann auch macht an der grundsätzlichen von der Natur vorbestimmten Unschärfe des betreffenden Zusammenhangs wird er nichts ändern können.
Wenn einem das erst einmal klar ist dann wird auch klar das Kriterien wie Nyquist in der betreffenden Situation schon einen sehr guten Anhaltspunkt geben auch wenn es nicht der ultimative allein seligmachende Parameter ist denn den gibt es nun mal hier einfach nicht.

Jetzt bin ich zum einen gespannt, wie Du erklärst worauf es ursprünglich bezogen wurde? Wie Du die Übertragbarkeit argumentierst?
Besten DAnk und Gruss,

Die Übertragbarkeit von Nyquist auf die digitale Fotografie beweist man sinnvollerweise mit praktischen Messungen der Auflösung so wie ich es gemacht habe.
Da muss man nicht lange rum theoretisieren denn der Zusammenhang ist eh unscharf und lässt sich theoretisch einfach nicht in ein wie auch immer geartetes Korsett zwängen.
Den praktischen Beweis wie erstaunlich gut Nyquist für die digitale Fotografie passt habe ich hier ja schon erbracht.

Link zur Grafik: http://forum.astronomie.de/phpapps/ubbthreads/ubbthreads.php/ubb/download/Number/38856/filename/Diagramm.jpg

Man erkennt sehr gut das genau bis zum Erreichen des Nyquist Kriterium bei N=3,6x Pixelgröße ein linearer Zusammenhang zwischen der erreichten Auflösung des Bildes und dem Faktor für die Öffnungszahl in bezug zur Pixelgröße des Sensors besteht.
Am Nyquist Kriterium erreicht man zwar noch nicht die maximal mögliche Auflösung aber an diesem Punkt gibt es einen Knick in der Kurve und ab da geht es nur noch sehr langsam vorwärts mit der Auflösung des Bildes.
Das Nyquist Kriterium kennzeichnet also nachweislich auch in der digitalen Fotografie einen ganz besonderen Punkt und ist daher ein sehr guter Anhaltspunkt.
Man muss es garnicht kleineren das passt hier erstaunlich gut auch wenn es nicht der ultimative allein seligmachende Parameter ist den man unbedingt bis zur x ten Nachkommastelle anstreben muss.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:
Hallo Gerd,

nun bin ich mir sicher, daß meine Fragestellung nicht beantwortet wurde.
Wie gesagt, ist ja nicht schlimm. Meinungen kann man da stehen lassen.
Ist immer eine Frage der Halbwertszeit.
Nun hatte ich dazu eine längere Antwort verfasst, die mir aber auch dazu dient, die Darstellungen etwas klarer zu machen. Und die werde ich noch aus formulieren, sofern es meine Zeit gestattet.

Besten Gruß,
Gerrit
 
:)

Interessant...
dass die Summe individueller Klarheiten
eine kollektive Unschärfe zu sein scheint.

Heisenberg wird es freuen. :)

lg
Niki
 
Hi Niki, wenn sich Heisenberg im Grabe dreht, hätte man mindestens ein bandbegrenztes Signal.
CS
 
Hallo Gerrit,

ich sehe das bei Langzeitbelichtung eher als Statistik, die solange funktioniert, wie man nicht in Sättigung einzelner Pixel kommt. Das passiert aber bei Sternen schon recht schnell. Aus einem ausgebrannten Sternklecks kann man keine Information mehr herausholen - nun sagen wir mal bedingt durch den Durchmesser schon. Solange aber der Klecks nicht gesättigt ist, hat man ja in der Gesamtintensität des Kleckses eine gute Aussage über die Helligkeit und die Stelle der in Summe größten Intensität zeigt auch die Stelle mit der größten Wahrscheinlichkeit für den Sternort an.
Das nette an einem Stern ist, dass man dessen ideale Wiedergabe im Bild kennt. Ich meine nicht den Punkt sondern das Beugungsbild, eigentlich die PSF der gesamten Optik.
Klingt dann in mancher Weise sehr nach den Vorüberlegungen zur Wavelet-Transformation. Aber ich denke man merkt schon intuitiv, wie schwer das für flächige Objekte oder eng benachbarte Punktquellen zurückzurechnen ist. Und diese Überlegung, nämlich wiviel Licht ein Pixel genau von welchen benachbarten Urbild-Lichtquellen erhalten hat, stellt vielleicht einen anderen (gewissermaßen analogen) Ansatz dar, um zu verstehen, warum es bei zu geringer Abtastrate und zu eng stehenden Quellen immer schwieriger wird, sauber zu trennen.

Überhaupt, der ganze mathematische Ansatz scheitert, wenn nicht ein gewisses, rein physikalisches Verständnis des Geschehens dafür sorgt, dass man von vornherein Aufnahmen so erstellt, dass sie auswertbar sind.
Die Aufgabe ist doch, mit ausreichender Auflösung und möglichst kurzer Belichtungszeit einen guten Signal-Rauschabstand zu gewährleisten, und dabei bezüglich des Dynamikumfangs nur in sehr begrenztem Maß Sensor-Sättigung hinzunehmen. Das schafft quasi erst die Voraussetzung zum Rechnen. Aber mit Bezug auf die Eingangs-Fragestellung macht das auch klar, dass mehr Öffnung auch mehr Spielräume eröffnet. Das Öffnungsverhältnis mag dabei eine gewisse Stellschraube sein, die entscheidet, ob die Öffnung noch zum Sensor passt.

Vielleicht bringt das ja ein paar positive Anstöße.

Clear Skies
Sven
 
Zitat von MountyPython:
" ... nun bin ich mir sicher, daß [MEINE *] Fragestellung nicht beantwortet wurde".

(*: Kleinbuchstaben durch Großbuchstaben ersetzt)

Hallo Gerrit,

bist Du AstroMusi, ... oder was ?

(Ich empfinde Faden-Hijacking als sehr unhöflich, ... gilt auch für viele andere Beiträge, ... aber besonders auf diesem Forum).

Rudi
 
Zuletzt von einem Moderator bearbeitet:
Hallo Rudi,

ich habe noch nie verstanden, wieso man verbieten sollte, dass sich ein Gespräch weiter entwickelt und sich somit auch vom Anfangsthema entfernt. Das ist wie eine Denksperre.

Clear Skies
Sven
 
Hallo Sven,

NEIN, die "Denksperre" ist bei Euch (bei Dir, Gerd und Gerrit, usw.).
Eure Interventionen im "falschen" Faden (was hindert Euch einen neuen aufzumachen), verhindern ganz eindeutig, daß der ursprüngliche sich (weiter-) entwickelt !

Rudi
 
Hallo Ruudi,

gehts Dir gut? Es ist auch Sinn und Zweck meines aus zeitlichen Gründen motivierten Rückzuges, dass es hier nicht zu einer Eskalation kommt. Und die sehe ich bis zu Deinem Posting absolut nicht. Gerds Posting war sachlich argumentiert.Aber nun mal nicht das, was ich erwarten würde. Was aber auch nicht schlimm ist.
Das sollte ich doch hoffentlich deutlich gemacht haben. Hier gehts auch nicht darum, Gerd, Sven oder sonst jemanden kategorisch zu widersprechen.

Das aber gerade Du jetzt die Eskalation beginnst, ist doch jetzt fast schon unglücklich. Oder meinst Du nicht?

Wir leben in diesen Forum durchaus offene Diskussionen. Und man sollte sich eigentlich darüber im Klaren sein, was das bedeutet.

Sollte ich mich allerdings täuschen, dann hätte ich gerne von Dir gewußt, welche Themenkreise denn zu einer Weiterentwicklung des Eingangsthemas gestattet wären. Übernimmst Du bitte die fachliche Leitung hier?

Besten Dank!
CS,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:
Hallo Sven,

in dem Posting hier #1342271 habe ich meine Denkansätze eigentlich schon gut dargestellt.
Grüße,
Gerrit
 
hallo Gerd,

ich beziehe den Ausdruck oversampling bei Deepsky Belichtung auf das durchschnittliche Seeingscheibchen, welches wir bei Langzeitbelichtung auf unseren Fotos abbilden. Natürlich wollen wir im Deepsky Bereich nicht bloß kleine Sterne, sondern auch bestmögliche Auflösung bei unseren Objekten der Begierde. Wir wollen alles!

Heute kann man ganz gut eine PSF aus den nicht ausgebrannten Sternen für das betreffende Langzeit-Summenbild extrahieren und damit durch Seeing verschwommenes Signal zum Teil reparieren. Ähnlich wie in der Planetenfotografie. Aber natürlich haben wir nicht so viele Bilder zum Mitteln (und wollen auch nicht 11,7x so lange belichten, also lieber 250mm Öffnung) und das S/N Verhältnis setzt engere Grenzen. Daher kommen wir noch lange nicht an deine Grafik mit dem inzwischen brühmten 3,6 x Pixelgröße Wert heran. Wenn man aus einem 2" Seeing ein 1" Seeing errechnen kann, ist das aber auch schon eine leckere Sache!

Wir nehmen gerne die Pixelscale (arcsec/Pixel) als Maßstab, und geht die unter einen Wert von ca. 0,70-0,80 so sieht man (bei durchschnittlichem Seeing) eben zunehmend irreparabel aufgeblähte Sterne, und vor allem das schwache Signal (Gezeitenströme, Cirrus, Gx Ausläufer) geht heillos im Rauschen unter. Für helle Objekte gelten andere Werte, man kann im Deepsky Lucky Imaging durchaus deine Formel für helle PN's anwenden, aber zb das große Halo um M57 und seine Substruktur wird man so kaum abbilden können. Da bieten sich Komposit Methoden an.

lg Tommy
 
Hallo Gerrit,

eben, ich wollte Deine ganz praktischen Darstellungen eigentlich mal dahingehend unterfüttern, dass man doch irgendwie sich eine Vorstellung schaffen muss, welche Auswirkungen diese Parameter haben. In ein Rechenmodell bekomme ich doch die Parameter gar nicht hinein, das kann nur eine grobe Vorlage liefern, was bei Idealbedingungen an Sensorauflösung nutzbar wäre. Da selbst bei Belichtungen von einer Sekunde durch reales Seeing schon einiges verschmiert, kann das nur der Beginn der "persönlichen Heuristik" sein, also das, was man als "Erfahrung" bezeichnet und wodurch sich eben Erfahrung auszeichnet. Man macht vielleicht die Erfahrung, dass man mit einer versehentlichen Kurzbelichtung mal Detail am Trapez sieht, was man die ganze Zeit zuvor immer per Überbelichtung weggebrannt hat...

Wie aber solche Erfahrungen Einfluss auf die nächste Anwendung haben, das ist immer eine Frage der persönlichen Reflexion. Und da will ich mal mit einem Blick auf die Evolutiontheorie oder auch evolutionäre Algorithmen drauf hinweisen, dass selbst der Chaot gar nicht mal so schlechte Chancen hat, wenn er nur halbwegs nachmachen kann, was bei ihm irgendwann mal erfolgreich war.

Clear Skies
Sven
 
GEnau Sven, man hat es hier außerdem mit konkurrierenden Prozessen zu tun. Und da wird die Betrachtung auch komplexer.
Und am Ende gibts die Technik nicht her, also macht man das beste drauß. Siehe Tommy.

Im Grunde läßt sich ja aus Gerds Formel nicht nur die Öffnungszahl berechnen, sondern auch die Pixelsize bei einer gewissen Öffnung.
Und dann steht man mit 1,1 Mikron ziemlich ohnmächtig vor dem Markt. Und die technologischen Merkmale haben zu dem auch noch so ihre Eigenheiten. Aber da ist bewegung drinn.
Noch vor 10 Jahren waren Chips mit Pixelsizes von 3.6 oder 2,9 Mikron weniger gut geeignet für Deepsky Imaging.
Nun schau mal einer an. Und hier g eht die Entwicklung auch weiter.

Ich muß auch niht unbedingt meiner persönliche Fragestellung hier im Forum breit treten, wo denn nun das Optimum liegen könnte. Man kann mit allen Ansätzen gut Leben. Denn die ganze Thematik ist schon Kompromiss behaftet.
Grüße,
Gerrit
 
Status
Es sind keine weiteren Antworten möglich.
Oben