Jupiter: RGB vs. RRGB

Status
Es sind keine weiteren Antworten möglich.

Jan_Fremerey

Aktives Mitglied
In den vergangenen Tagen hatten wir hier an verschiedenen Stellen wieder Diskussionen über die charakteristischen Unterschiede zwischen RGB und LRGB-Ausarbeitungen des Planeten Jupiter. Das "L" steht für die Beimischung eines Luminanzbildes zum RGB. Die Unterschiede waren in einem Fall so gravierend, dass ich dort schon die noch relativ junge "Derotationstechnik" verdächtigt hatte, bestimmte Oberflächenmerkmale des Planeten "überzubetonen", die in einem gleichzeitig an anderer Stelle aufgenommenen Bild (das untere) kaum in Erscheinung traten.

Am Ende hatte sich herausgestellt, dass wohl in erster Linie die unterschiedliche Aufbereitung des Videomaterials für die in diesem Fall beträchtlichen Unterschiede in der Detailzeichnung der Wolkenstrukturen auf Jupiter verantwortlich war. Die RGB-Aufbereitung hatte zu einer Betonung der in rotationsrichtung auseinandergezogenen Strukturen innerhalb der markanten Wolkenbänder geführt, während in der Vergleichsaufnahme mit breitbandigem IR-Anteil im Luminanzkanal offenbar enger lokalisierte Turbulenzen innerhalb der Wolkenbänder betont wurden. Bei einem anderen Vergleich waren die Unterschiede zwischen RGB- und RRGB-Verarbeitung ein und desselben Videomaterials sehr viel weniger ausgeprägt.

Diese unterschiedlichen Berichte haben mich nun veranlasst, einen kürzlich selbst aufgenommen und als RGB (am Ende) bereits vorgestellten Jupiter probeweise auch einmal als RRGB zu "entwickeln". Den Vergleich habe ich in dieser Animation zusammengestellt:

Link zur Grafik: http://www.astro-vr.de/Jupiter_121113_RGBvsRRGB.gif

Auch hier entstanden die beiden Vergleichsbilder aus demselben Videomaterial. In der etwas dunkler gefärbten RGB-Wiedergabe sind die in Rotationsrichtung gestreckten Wolkenformationen stärker ausgeprägt als in dem von hellerem Rot durchsetzten RRGB.

Dass die Beimischung eines Luminanzkanals - in diesem Falle Rot - zu Farbverschiebungen führt, erscheint naheliegend und ist hinlänglich bekannt. Um das Phänomen der unterschiedlichen Strukturzeichnung zu erklären, stelle ich mir vor, dass die obersten Luftschichten der Jupiteratmosphäre rötlich gefärbt und durchscheinend sind, so dass deren langgestreckte Feinstruktur durch das Rotfilter abgeschwächt wird zugunsten tiefer gelegener, turbulenterer Wolkenschichten. In den gängigen Übersichtsbeschreibungen zur Jupiteratmosphäre habe ich noch keine Bestätigung für meine Vermutung gefunden, vielleicht kennt sich einer von Euch da besser aus?

Bislang hatte ich die RRGB-Leute immer so verstanden, dass sie mit der Rotbeimischung lediglich den Kontrast der ohnehin vorhandenen Strukturen anheben wollen. Jetzt wird mir aber klar, dass man mit dem Rotfilter möglicherweise tiefergelegene, turbulentere Strukturen "aufdeckt", die im RGB-Echtfarbenbild von den darüberliegenden, streifenförmigen Wolkenstrukturen "verschleiert" werden.

Gruß, Jan
 
Hallo Jan,

Dass die Beimischung eines Luminanzkanals - in diesem Falle Rot - zu Farbverschiebungen führt, erscheint naheliegend und ist hinlänglich bekannt.

das muß nicht sein. Je nachdem, mit welcher Methode der Luminanzkanal beigemischt wird, kannst Du eine Farbverschiebung auch völlig umgehen.

Wenn z.B. ein normales RGB Bild in Helligkeit, Sättigung und Farbton (HSL) zerlegt wird, kannst Du in den "Helligkeitskanal" das ruhige und daher scharfe R oder IR Bild als neue Ebene reinkopieren und mit der Deckungsfähigkeit zwischen 30 und 75% spielen (und anschließend die drei Kanäle wieder rekombinieren), dann hast Du exakt die selben Farben wie vorher, aber über die % deutlich mehr Schärfe. :)

Ich weiß nicht, wie die üblichen Astroprogramme die Luminanz reinmischen. Ich mach das händisch, weil ich da die volle Kontrolle haben möchte...

Bei wirklich ruhigem Seeing lohnt es sich z.B. den Grünkanal als s/w Luminanz beizumischen.

Um das Phänomen der unterschiedlichen Strukturzeichnung zu erklären, stelle ich mir vor, dass die obersten Luftschichten der Jupiteratmosphäre rötlich gefärbt und durchscheinend sind, so dass deren langgestreckte Feinstruktur durch das Rotfilter abgeschwächt wird zugunsten tiefer gelegener, turbulenterer Wolkenschichten.

Wenn dem so wäre, dann müßte doch an den Planetenrändern rundum Jupiter einen rötlichen Farbton haben. Das ist nicht der Fall.

Mit steigender Wellenlänge wird die Atmosphäre einfach durchsichtiger. Kennt man ja von IR-Aufnahmen in Deepsky-Staubregionen. Das langwellige Licht schwingt um die Staubpartikel einfach "drumrum". ;)

Mit steigender Wellenlänge wird also tiefer in die Atmosphäre hineingeschaut. Zwischen Rot und Methanbandfilter (890 nm) liegen ca. 22-25 km Atmosphäre. Als 2010/2011 das SEB visuell weg war, konnte ich es mit Methanbandfilter nach wie vor problemlos fotografieren.

Aber mit steigender Wellenlänge sinkt die Auflösung. Feine Strukturen werden glattgebügelt.

Leider hab ich von den Profies keine Angaben erhalten wie das zwischen Rot und nahem IR ( bis etwa 740 nm) ausschaut. So aus dem Bauch raus würde ich sagen, daß das etwa 5-7 km sein müßten.

In unserer Atmosphäre sind die Wolkenstrukturen ja auch sehr unterschiedlich. Z.B. Kumuli in der unteren Atmosphäre bis 10 km Höhe. Und in bis zu 80 km Höhe dann eher filigrane Schleier aus Eiskristallen (leuchtende Nachtwolken).

Die Jupiteratmosphäre ist noch nicht besonders gut erforscht. Seit Jahrzehnten ist keine Sonde mehr dort in einer Umlaufbahn gewesen. Die Forschung hat sich auf Venus und Mars konzentriert.

Wir wissen jedoch, daß die Jupiteratmosphäre einen sehr komplexen Aufbau hat. Mit unterschiedlicher Temperatur, Druck und unterschiedlichen Gaszusammensetzungen. Es wird momentan spekuliert, daß die unterschiedlichen Farben der Wolken von den Molekülgrößen herrühren. Je nach Temperatur/Druck und UV-Einstrahlung könnten da völlig unterschiedliche Verbindungen (organische Chemie) existieren...

Farbveränderungen in Strukturen (GRF, Oval BA, Granatfleck...) deuten ja dauf hin, daß frisch aufsteigendes Material innerhalb von Monaten oder Jahren eine chemische Veränderung durchläuft...

Ob eher kleinräumige oder gröbere Strukturen sichtbar sind, hängt vor allem davon ab, wie das Seeing ist. Tragen Grün- und Blaukanal zum Schärfeergebnis bei, sind viel feinere Strukturen zu sehen. Um die "Gravity Waves" in der oberen Jupiteratmosphäre abzubilden, brauchst neben viel Öffnung extrem ruhiges Seeing...
 
Zitat von Jan_Fremerey:
Um das Phänomen der unterschiedlichen Strukturzeichnung zu erklären, stelle ich mir vor, dass die obersten Luftschichten der Jupiteratmosphäre rötlich gefärbt und durchscheinend sind, so dass deren langgestreckte Feinstruktur durch das Rotfilter abgeschwächt wird zugunsten tiefer gelegener, turbulenterer Wolkenschichten. In den gängigen Übersichtsbeschreibungen zur Jupiteratmosphäre habe ich noch keine Bestätigung für meine Vermutung gefunden ...
Hallo Jan, ist sicher ein sehr komplexes Thema. Der GRS als prominentes rötliches Feature liegt tatsächlich über der umgebenden Wolkendecke, ob das aber auch für andere rötliche Strukturen zutrifft und ob diese durchscheinend sind, ist weniger klar:

Infrared data have long indicated that the Great Red Spot is colder (and thus, higher in altitude) than most of the other clouds on the planet; the cloudtops of the GRS are about 8 km above the surrounding clouds.

Die Ursache für die rötliche Färbung ist aber unklar:

It is not known exactly what causes the Great Red Spot's reddish color. Theories supported by laboratory experiments suppose that the color may be caused by complex organic molecules, red phosphorus, or yet another sulfur compound.

Vielleicht findest du ja in den verlinkten Artikeln weitere Hinweise ...

Gruß, Peter

Atmosphere of Jupiter

Jovian Clouds and Haze

Dynamics of Jupiter’s Atmosphere

Thermal Structure and Composition of Jupiter’s Great Red Spot

Coupled Clouds and Chemistry of the Giant Planets

 
Hallo Jan,

Zitat von Jan_Fremerey:
Am Ende hatte sich herausgestellt, dass wohl in erster Linie die unterschiedliche Aufbereitung des Videomaterials für die in diesem Fall beträchtlichen Unterschiede in der Detailzeichnung der Wolkenstrukturen auf Jupiter verantwortlich war.

Das ist jetzt interessant, da ich zu einem anderen Fazit gekommen war. Meiner Meinung nach liegt es nur zum Teil an der unterschiedlichen Aufbereitung. Ich war der Meinung, dass aufgrund der unterschiedlichen Transmissionskurven der Verwendeten Filter auch unterschiedliche Wolkenprofile abgebildet wurden. Ich vermute, beide Komponenten spielen eine Rolle.

Gruß

Frank
 
Hallo Fee,

Zitat von Sternenfee123:
Wenn z.B. ein normales RGB Bild in Helligkeit, Sättigung und Farbton (HSL) zerlegt wird, kannst Du in den "Helligkeitskanal" das ruhige und daher scharfe R oder IR Bild als neue Ebene reinkopieren und mit der Deckungsfähigkeit zwischen 30 und 75% spielen (und anschließend die drei Kanäle wieder rekombinieren), dann hast Du exakt die selben Farben wie vorher, aber über die % deutlich mehr Schärfe. :)

Aber in dem Moment wird daraus doch ein Falschfarbenbild, oder? Das Bild mag zwar augenscheinlich die gleichen Farbtöne haben, es ist aber nicht mehr natürlich.

Gruß,

Frank
 
Zitat von Sternenfee123:
Wenn z.B. ein normales RGB Bild in Helligkeit, Sättigung und Farbton (HSL) zerlegt wird, ...
Hallo Fee,

danke für den Hinweis, das hört sich plausibel an, ich will damit gerne mal experimentieren.

Zitat von Sternenfee123:
Ich weiß nicht, wie die üblichen Astroprogramme die Luminanz reinmischen. Ich mach das händisch, weil ich da die volle Kontrolle haben möchte...
Bislang habe ich in Fitswork einfach das nur wenig geschärfte RGB mit dem durchgeschärften L übereinanderkopiert, das wird da so angeboten.

Zitat von Sternenfee123:
Bei wirklich ruhigem Seeing lohnt es sich z.B. den Grünkanal als s/w Luminanz beizumischen.
Das habe ich hier mit dem 10" Spiegel noch nicht erlebt. Bei meinem 6" FH war der G-Kanal natürlich aus anderen Gründen meistens der schärfste.

Zitat von Sternenfee123:
Mit steigender Wellenlänge wird also tiefer in die Atmosphäre hineingeschaut.
So stelle ich mir das grundsätzlich auch vor. Vielen Dank für die etwas detaillierteren Angaben zur Wolkenschichtung am Jupiter, ich will mich da auch noch weiter in der Literatur umschauen.

Gruß, Jan
 
Zitat von fbrand:
Ich war der Meinung, dass aufgrund der unterschiedlichen Transmissionskurven der Verwendeten Filter auch unterschiedliche Wolkenprofile abgebildet wurden.
Hallo Frank,

zu im wesentlichen demselben Ergebnis waren wir hier ja auch gekommen: Mit unterschiedlichen Wellenlängen dringt man offenbar unterschiedlich tief in die Atmosphäre ein und bekommt dabei unterschiedliche Wolkenstrukturen zu sehen.

Dank und Gruß, Jan
 
Zitat von Sternenfee123:
Wenn z.B. ein normales RGB Bild in Helligkeit, Sättigung und Farbton (HSL) zerlegt wird, kannst Du in den "Helligkeitskanal" das ruhige und daher scharfe R oder IR Bild als neue Ebene reinkopieren und mit der Deckungsfähigkeit zwischen 30 und 75% spielen (und anschließend die drei Kanäle wieder rekombinieren), dann hast Du exakt die selben Farben wie vorher, aber über die % deutlich mehr Schärfe. :)
Hallo Fee,

das funktioniert in der Tat, bei mir aber vorerst nur mit dem 8-Bit Bildbearbeitungsprogramm "Picture Publisher". Da habe ich die L-Komponente des ungeschärften RGBs auf höheren Kontrast getrimmt und dann mit den unbearbeiteten H- und S-Kanälen wieder zusammengefügt. Lieber wäre mir eine solche Bearbeitung im 16-Bit-Format wegen der viel differenzierteren Grauwertskala. In Fitswork wird aber die HSL-Zerlegung nicht angeboten. Welche Software benuzut Du denn in solchen Fällen?

Gruß, Jan
 
Hallo Frank,

Aber in dem Moment wird daraus doch ein Falschfarbenbild, oder? Das Bild mag zwar augenscheinlich die gleichen Farbtöne haben, es ist aber nicht mehr natürlich.

Wenn der Grün- oder Rotkanal nach der von mir verwendeten Methode beigemischt wird, halte ich das noch nicht für ein "Falschfarbenbild". Ich betone damit nur Strukturen im für menschliche Augen sichtbaren Wellenlängenbereich.

Lege ich dagegen IR in die Luminanz, ist es aus meiner Sicht ein Falschfarbenbild. Denn dann sind Strukturen beigemischt, die wir mit unseren Augen nie und nimmer sehen könnten.

Das ist wie bei Deepsky-Aufnahmen, in die H-Alpha und S-II reingemischt werden. Diese Wellenlängen sehen wir mit unseren natürlichen Sensoren im Fernrohr net. -> Falschfarbe

Solange der Bildautor dazuschreibt, welche Wellenlänge er in die Luminanz reinmischt, halte ich eine solche Darstellung für legitim. Warum sollen wir uns auf den Bereich beschränken, den wir "sehen" können? Wir akzeptieren doch in anderen Bereichen auch "unsichtbare" Wellenlängen. Von UV über IR bis hin zu Röntgenlicht...
 
Hi Jan,

Lieber wäre mir eine solche Bearbeitung im 16-Bit-Format wegen der viel differenzierteren Grauwertskala. In Fitswork wird aber die HSL-Zerlegung nicht angeboten. Welche Software benuzut Du denn in solchen Fällen?

ich mach das mit Paint Shop Pro. Das kann 16 Bit png. Die krieg ich mit Giotto. :)

 
Hallo Fee,

Das ist wie bei Deepsky-Aufnahmen, in die H-Alpha und S-II reingemischt werden. Diese Wellenlängen sehen wir mit unseren natürlichen Sensoren im Fernrohr net. -> Falschfarbe

ja genau, und das ist auch der Grund, warum man eigentlich keine sauteuren H-alpha Sonnenfilter kaufen sollte. Man sieht ja eh nix... ;)

Das menschliche Auge geht runter bis ca. 700 nm (+/-) und da liegt sowohl H-alpha mit 656.28 nm wie auch SII mit 671.70nm Wellenlänge noch gut drin und zwar beides Mal tiefrot.

"Falschfarben" ist auch der völlig falscher Begriff. Davon spricht man, wenn man dem roten H-alpha-Kanal bei der klassischen Hubble Paletten-Farbgebung (Deep-Sky Aufnahmen) zwecks besserer Differenzierung die (falsche) Farbe Grün zuordnet.

Grüße
Rolf



 
Zuletzt von einem Moderator bearbeitet:
Hi Rolf,

ich hab ne Verständnisfrage zu S-II bei Deepsky-Objekten. Kannst Du das mit Deinen Augen im Fernrohr (bei genügend Öffnung, so ab C14) noch sehen? Ich schaffs net. Kann an meinen schlechter gewordenen Augen liegen.
 
Zuletzt von einem Moderator bearbeitet:
Hi Fee,

Diese Wellenlängen sehen wir mit unseren natürlichen Sensoren im Fernrohr net. -> Falschfarbe

Keine Ahnung, ob ich das sehe, bei M42 kann das schon sein.
Darum geht es aber nicht.
Es geht darum, dass man das bei genügend Helligkeit sehen könnte und nicht, dass der menschliche Sensor das nicht prinzipiel nicht kann.

Man muss differenzieren, ob das menschliche Auge das physiologisch nicht sehen kann, weil das Spektrum zu langwellig ist oder weil das eine oder andere Objekt einfach zu dunkel ist. Das ist dann aber noch lange keine "Falschfarbe".

Die Sonne im H-alpha Licht ist hell genug, es ist aber die selbe Wellenlänge (Ha) und SII liegt nur ganz knapp daneben.

Hier geht es aber um Jupiter, und der ist bekanntermaßen auch recht hell. Ich bin ziemlich sicher, dass man auf Jupiter auch durch einen H-alpha Filter hindurch etwas erkennen kann.
Ist ja auch nur ein "Rot" Filter und sonst nix. Jupiter wird, wie der Mond, von unserer Sonne angeleuchtet, und da ist definitiv H-alpha drin.

Grüße
Rolf

 
Zuletzt von einem Moderator bearbeitet:
Zitat von Rolf_Geissinger:
Ich bin ziemlich sicher, dass man auf Jupiter auch durch einen H-alpha Filter hindurch etwas erkennen kann.
Hallo Rolf,

klar kann man das, wenn der Durchlass nicht zu schmal ist, hier z.B. mit 35 nm Ha-Filter, das ist etwa halb so breit wie die üblichen Rotfilter aus einem RGB-Satz. Ich hatte da zumindest die Erwartung, dass die Abbildung schärfer sein sollte als bei 70 nm Durchlass. An der Sonne selbst geht es wohl nur vernünftig mit < 1 nm Durchlass.

Gruß, Jan
 
Hi Rolf,

Hier geht es aber um Jupiter , und der ist bekanntermaßen auch recht hell. Ich bin ziemlich sicher, dass man auf Jupiter auch durch einen H-alpha Filter hindurch etwas erkennen kann.
Ist ja auch nur ein "Rot" Filter und sonst nix. Jupiter wird, wie der Mond, von unserer Sonne angeleuchtet, und da ist definitiv H-alpha drin.

bei meinem 8"er kann ich mit dem 12 nm H-Alpha Filter und 300-fach nur "ja, da is was" sehen. Einzelheiten pack ich net. Wenn Du Jupiter soweit vergrößerst, daß Du feine Strukturen erkennen kannst, nimmt die Flächenhelligkeit stark ab. Das wird dann schon schwierig mit visuellem Erkennen von reinen H-Alpha Strukturen.

Mit der DMK 21AF04.AS hatte ich es auch probiert. Da wurden die Belichtungszeiten selbst bei nur 4 Meter effektiver Brennweite zu lang. Ich mußte auf 2,5 Sekunden gehen. Da hat mir selbst gutes Seeing die Details kaputtgewabert.

Mit der neuen DMK 21AU618 hab ich es noch nicht versucht. Da hat mir bislang das Wetter einen Strich durch die Rechnung gemacht. Aber auch mit ihrer höheren Empfindlichkeit liege ich geschätzt bei 0,6 Sekunden Belichtungszeit für H-Alpha Aufnahmen.

0,6 Sekunden ist bei Planeten für feine Details viel zu lang. Das Seeing kannst da nur austrixen, wenn Du Belichtungszeiten von 1/25 Sekunden oder noch kürzer verwendest.

Bei einer Optik ab 16" aufwärts dagegen kannst tatsächlich mit H-Alpha Filter und der neuen DMK scharfe Bilder machen. Bei ALPO Japan sind ab und an welche zu sehen. Visuell habe ich den H-Alpha Filter an Jupiter aber mit so ner großen Öffnung noch nicht getestet.

Wir Planetenfotografen nutzen aber nicht nur die Schmalbandfilter (O-III, H-Alpha und S-II). Wir verwenden gerne auch noch langwelligere Filter.

Z.B. die Planet Pro (742 nm, 807 nm), den 840 nm IR-Durchlaßfilter von B+W, den Methanbandfilter (890 nm mit 8, 12, 18 oder 50 nm Halbwertsbreite) und sogar den 1050 nm Filter von Edmond Optics für spezielle Details. Das läuft (bei uns) alles unter "nahes IR". Und auch gerne mal UV bei 350-380 nm. Dafür sind unsere Augen definitiv nicht mehr empfindlich.

Aber ich gebe zu, ich hab mich da im obigen Post nicht korrekt genug ausgedrückt.

 
Hallo zusammen,

ja, ich habe auch schon Planetenbilder gemacht und weiß prinzipiell, auf was es ankommt.
Natürlich ist ein H-alpha Filter nicht sonderlich gut geeignet, um kurze Belichtungszeiten am Planeten hinzubekommen.
Darum ging es aber auch gar nicht und IR ist ja nochmal was ganz anderes. Bitte nicht noch mehr Verwirrung.

Nur der Vollständigkeit halber, denn es geht ja hier um Planetenbilder.
1 Angström = 0.1nm. H-alpha Sonnenfilter für Protuberanzen haben Halbwertsbreiten zwischen grob 1 und 0.2 Angström.
Das ist aich der Grund, warum fotografischen H-alpha Filter (auch bis runter zu 3nm) für die Sonnenbeobachtung völlig ungeeignet sind.

Grüße
Rolf

 
Zuletzt von einem Moderator bearbeitet:
Zitat von Sternenfee123:
Mit der DMK 21AF04.AS hatte ich es auch probiert. Da wurden die Belichtungszeiten selbst bei nur 4 Meter effektiver Brennweite zu lang. Ich mußte auf 2,5 Sekunden gehen.
Hallo Fee,

das wundert mich, denn meine Jupiterserie hatte ich mit nur 33 ms Belichtungszeit aufgenommen, allerdings bei f/11 und mit dem 35 nm breiten Ha Filter. Bei 12 nm Durchlass müsste man 3x so lange belichten, also 100 ms, und von f/11 bis f/20 verliert man nochmal rund einen Faktor 4, macht am Ende 400 ms. Das ist natürlich auch schon viel im Hinblick auf das Seeing, aber 2,5 s - wie kommt denn das zustande? Manchmal lohnt es sich, mit weniger langen Brennweiten und etwas Unterbelichtung zu arbeiten.

Gruß, Jan
 
Hi Jan,

ich hab 8" und die DMK 21AF04.AS verwendet. Deine Schüssel hat 10" und Du hast ne Kamera mit doppelt so großen Pixeln.

Also ein viel empfindlicheres System. Und dann noch bei f/11, bei mir waren es f/20 oder sogar f/25...

Ich hatte auch bei 1 Sekunde Belichtungszeit Jupiter auf dem Video. Aber dann hatte er bei den dunklen Bändern krass ausgefressene Stellen am Planetenrand. Ich hab die Belichtungszeit dann so weit erhöht, bis der Rand glatt war...

Unter f/20 kann ich net gehen, das kommt durch die Baulänge vom Filterrad, in dem neben R, G, B auch noch UV und der H-Alpha Filter steckte...

Es kann sein, daß an dem Abend die Durchsicht etwas unter Durchschnitt war. Das weiß ich jetzt nicht mehr. Ist schon 2 Jahre her. Da hatte ich ganz frisch die Schmalbandfilter für Deepsky und hab sie natürlich auch an Jupiter ausprobiert. Weil mich das Ergebnis net vom Hocker gezogen hat, hab ich die dann seither nicht mehr für Jupiter verwendet...
 
Zitat von Sternenfee123:
Deine Schüssel hat 10" und Du hast ne Kamera mit doppelt so großen Pixeln. -- Und dann noch bei f/11, bei mir waren es f/20 oder sogar f/25...
Hallo Fee,

meine Kamera (Chameleon von Point Grey) hat ein Pixelraster von 3,75 µm, also kleiner als die 5,6 µm Deiner DMK21. Für die Kamera-Ankopplung ist allein das Öffnungsverhältnis maßgebend. Bei 5,6 µm Pixelraster reichen f/15 allemal für hochaufgelöste Bilder. Mit f/25 verschenkt man nur Belichtungszeit ohne an Auflösungsvermögen zu gewinnen ("leere Vergrößerung"). Bei der Chameleon reicht eigentlich f/10, da gewinnt man gegenüber f/25 schon einen Faktor 6 in der Belichtungszeit, aber die von Dir angegebenen 2,5 s kann ich mir noch nicht erklären. Habe fast schon Dein Ha-Filter in Verdacht, ist das denn wirklich 12 nm breit und nicht schmaler?

Gruß, Jan
 
Zitat von Sternenfee123:
es steht 12 nm in der Rechnung. Was das Glas wirklich hat, kann ich net messen.
Hallo Fee,

Du kannst das relativ leicht nachprüfen, indem Du die Belichtungszeiten für ein und dasselbe Objekt ermittelst, die zu vergleichbaren Bildhelligkeiten führen, wobei Du einmal mit diesem Filter und zum Vergleich mit dem Rotfilter aus einem gängigen RGB-Satz aufnimmst. Das normale Rotfilter hat einen Durchlassbereich von rund 70 nm. Bei 12 nm Durchlassbreite müsstest Du somit rund 6x länger belichten.

Gruß, Jan
 
Status
Es sind keine weiteren Antworten möglich.
Oben