Mehrfarbige Bilder - wie?

Status
Es sind keine weiteren Antworten möglich.

lunic82

Aktives Mitglied
Hallo,

ich staune beim Betrachten von Fotos von Galaxien, aber auch bei Nebeln, immer wieder über die verschiedenen Farben. Beispielsweise gibt es von Andromeda Bilder (mit dem Hubble Teleskop gemacht) mit sattem Türkis im Randbereich und gelblich/orangenem inneren Bereich. See Explanation. Clicking on the picture will download the highest resolution version available. | Galaxy photos, Galaxy facts, Andromeda galaxy

Oder auch die Feuerradgalaxie: türkis, rot, pink, orange... https://www.starobserver.org/image/1506/m101_HubbleSubaru_4000.jpg

Mal davon abgesehen, wie die Galaxien "wirklich" aussehen mögen, sind die Bilder einfach schön anzuschauen. Ist natürlich Geschmackssache, nicht jeder findet diese aufgebrezelten Bilder schön, weil es vielleicht eher unnatürlich aussieht. Aber davon abgesehen:

Wie kommen die Farben ins Bild? Wenn ich ein Bild von M31 einfach nur Stretche, kommt ein ziemlich einfarbiges Bild dabei heraus. Gehe ich pro RGB-Kanal vor und setze jeweils den Schwarzwert, dann verändert sich die Farbe des ganzen Bildes. Die Farbkanäle alle gleichmäßig zu stretchen, führt bei mir daher nicht zu verschiedenen Farben. Liegt das an zu wenig Belichtungszeit? Zu wenig Bildinfos? Die richtig "bunten" Bilder sind ja meist mit mehreren Stunden Belichtungszeit entstanden und entsprechend detailliert.

Bei Fitswork habe ich neulich mal mit dem Gammaregler pro RGB-Kanal herumgespielt, dabei ist mir aufgefallen, dass die Bildbereiche unterschiedlich gefärbt sind, bzw unterschiedlich auf die Regler reagieren. Das Ergebnis kann man hier bestaunen (oder auch bedauern..) Andromeda.jpg

Ich habe allerdings nicht das Gefühl, damit tatsächlich mehr Farben aus dem Bild zu holen, sondern eher die Farben willkürlich verteilt zu haben. Wie macht ihr das?

Gruß Moritz
 
Hall Moritz,

wenig Lichtverschmutzung, wenig Dunst während der Aufnahme weil das alles schluckt Farbe.
Dann hilft immer mehr Belichtungszeit, der Rest ist Bildbearbeitung.
Farbkalibrierung, selektives Farbkorrektur und selektives anheben der Sättigung.
Fitswork habe ich ganz früher mal benutzt, bin aber nie glücklich damit geworden, aktuell nutze ich Pixinsight und Affinity Photo.
Um bei M31 zu bleiben hier mal ein unbearbeitet RGB und des Endergebnis, wobei das nur ein Testschuss war und weit entfernt von perfekt ist.

1611221970265.png


1611222461128.png


Gruß
Carsten
 
Hallo Carsten,

erstmal danke für deine Antwort! Lichtverschmutzung ist bei mir ausreichend vorhanden, ob man jetzt die benachbarten Gärten, Straßenlaternen, Dörfer oder Städte nimmt. Dunst ist weniger ein Problem, da wir auf dem Land wohnen und den Rhein in der Nähe haben, da bilde ich mir ein, dass die Luft recht klar ist. Die Belichtungszeit zu erhöhen hilft vermutlich bei sämtlichen Aspekten des Fotos, je mehr desto gut. :)
Farbkalibrierung, selektives Farbkorrektur und selektives anheben der Sättigung - da werde ich mal in dieser Richtung weiter probieren. Selektives Anheben der Sättigung habe ich in Photoshop schonmal gesehen, vielleicht geht da ja noch mehr. Meine Pixinsight Testlizenz ist gerade ausgelaufen, ich werde es mir aber nicht kaufen. Ist mir viel zu kompliziert und umfangreich, da kommt bei mir irgendwie kein Spaß auf. Affinity Foto werde ich mal testen, kostet auch nur einen Bruchteil von PI - danke für den Tipp!

Du hast übrigens echt starke Bilder bei flickr, Respekt!!

Gruß Moritz
 
Moin!

Also wenn du in RGB Deepsky Aufnahmen machen möchtest, hilft es dir sehr (wie schon Carsten gesagt hat) wenn du dich von Lichtverschmutzen Gebieten entfernst. Ich habe M31 mal in Bortle 4 und in Bortle 3 fotorafiert und da liegen Welten zwischen... Nicht nur, dass du den gelben Saum nicht mehr hast (oder weniger), du kannst auch länger Belichten für mehr Kontrast! Du bist also nicht so schnell hintergrund limitiert. Du sprachst vom Rhein? Vllt liegt die Eifel oder Schwarzwald ja bei dir um die Ecke ;)

Achte auch darauf, dass du das Histogram auf ca 1/3 oder 1/4 belichtest. Sodass du den Rand ganz links (schwarz) und rechts (Weiss) im histogramm nicht berührst. So sorgst du dafür, dass du keine feinen Details im Schwarz verlierst und deine Sterne nicht ihre Farbe verlieren oder sich aufblähen.

Lg Tom
 
Moin!

Also wenn du in RGB Deepsky Aufnahmen machen möchtest, hilft es dir sehr (wie schon Carsten gesagt hat) wenn du dich von Lichtverschmutzen Gebieten entfernst. Ich habe M31 mal in Bortle 4 und in Bortle 3 fotorafiert und da liegen Welten zwischen... Nicht nur, dass du den gelben Saum nicht mehr hast (oder weniger), du kannst auch länger Belichten für mehr Kontrast! Du bist also nicht so schnell hintergrund limitiert. Du sprachst vom Rhein? Vllt liegt die Eifel oder Schwarzwald ja bei dir um die Ecke ;)

Achte auch darauf, dass du das Histogram auf ca 1/3 oder 1/4 belichtest. Sodass du den Rand ganz links (schwarz) und rechts (Weiss) im histogramm nicht berührst. So sorgst du dafür, dass du keine feinen Details im Schwarz verlierst und deine Sterne nicht ihre Farbe verlieren oder sich aufblähen.

Lg Tom

Hallo Tom,

danke für deine Antwort! Ja ein dunkler Himmel ist durch nichts zu ersetzen.. Bei mir um die Ecke ist der Odenwald, das wäre schonmal ne deutliche Steigerung..

Das Histogramm auf 1/3 bzw 1/4 belichten, wie mache ich das? Ich kann mir im Liveview der Pentax das Histogramm anschauen. Bei den Flats ist der Balken in der Mitte, bei Lights habe ich noch nicht drauf geachtet. Die Rede ist ja auch immer davon, dass sich der Balken bei den Flats im rechten Drittel befinden soll, aber wie er da hinkommt, habe ich noch nicht kapiert. Mehr Blende?

Gruß Moritz
 
Hi Moritz,

wobei wenn du Photoshop schon hast bringt Dir Affinity Photo erstmal nix weil ist dasselbe, nur günstiger und ohne Abo.


Danke fürs vorbeischauen, freut mich :)

Grüße
Carsten

Hi Carsten,
Ich habe bei der selektiven Anhebung der Sättigung das Problem, dass nichts passiert. Muß ich die Farben vorher kalibrieren, also die Farbkanäle aufeinanderlegen, sodass die Peaks im Histogramm deckungsgleich sind?Wenn ich die Kanäle einzeln mit Gradationskurven anheben,bekomme ich im blau grünen Bereich massives Farbrauschen. Ist vielleicht einfach nicht mehr drin im Bild? Ich habe auch das Problem, dass ich die Fotos als jpg geschossen habe, zu RAW kam ich erst später. Da fehlen dann vermutlich auch Farbenformationen.

Gruß Moritz
 
Hallo Moritz,

ich sehe schon da fehlt es noch an allen Ecken ;)
Natürlich die Bildgewinnung muss passen, ohne vernünftige Daten geht halt mal nix.
Auch RAW ist Pflicht sowie die Bearbeitung in tiff und 16 bit

Mit selektiver Farbkorrektur meine ich nicht die einzelnen Farben in der Gradationskurven, in Affinity gibt dazu z.B "HSL" und die "Selektive Farbkorrektur" wie das im Photoshop heiß weiß ich nicht.

1611232387870.png


1611232472988.png


Und dann arbeitet man auch mit Masken um Bereiche gezielt zu bearbeiten oder zu schützen wie z.B. den Hintergrund.
Auch hilft es aus den RGB Kanälen ein Luminanz Ebene zu erstellen und die Farbe Ebene getrennt zur Luminanz Ebene zu bearbeiten.
Aber wie schon geschrieben dazu braucht es natürlich auch ordentliche Daten, nur ein paar Regler schieben reicht leider nicht :)

Gruß
Carsten
 
Moin!

Ja RAW ist unerlässlich, mit JPEG kannst du keine gute Nachbearbeitung machen.

@lunic82 Wie du 1/3 zu 1/4 das histogram belichtest das läst sich nicht Pauschal sagen. Jede Nacht und jedes Objekt erfordert eine individuelle Einstellung.

Lichtverschmutzung, Luftfeuchtigkeit und Seeing, Temperatur, Wind sind äußerliche Faktoren auf die du keinen Einfluss hast.
Auf was du Einfluss hast ist das ISO/Blende/Belichtungszeit und Sensor Typ + Optik.

Die Blende kannst du an deinem teleskop nicht verändern außer mit Reducern. Aber gehen wir von einer fixen blende aus.

Damit dein Bild viel Kontrast hast musst du lange belichten. Deine Belichtungszeit ist aber an 2 Faktoren gekoppelt:

1. Hintergrundlimitierung: Belichte solange bis du noch nicht "Hintergrund limitiert" bist, das bedeutet das das Histogramm nicht oben anschlägt (also abgeschnitten wird) und das Weltall eine orange Grundfärbung bekommt. Dass passiert weil die Luftblässchen der Atmosphäre ja Licht zurück zum Boden reflektieren und die Kamera ja nicht unterscheiden kann zwischen Weltraum Signal und Signal des reflektierten lichts der Atmosphäre. Also überschreibt irgendwann das Signal der Atmosphäre dein Signal aus dem All

2. Leider ist deine Belichtungszeit bzw die Rundheit deiner Sterne an deiner Montierung gekoppelt.... Also wird Autoguiding irgenwann ein muss. Aber selbst da spielt es auch noch eine Rolle wie Hell das Objekt ist wodurch du dann mit der ISO spielen musst.

Falls du also deine Belichtungszeit nicht steigern kannst um 1/4 - 1/3 Histogramm zu belichten, weil die oben genannten faktoren dich limitieren, muss du mit ISO arbeiten, was erstmal schlimm klingt aber es nicht sein muss. Denn durch die kalibrierungsframes und mehr Bildern kannst du deine SNR verbessern (Signal to NOISE). Das Rauschen wird also mit jedem Bild was du schießt/stackst immer besser, da das zufällige Rauschen mit Bildifnormation gefüllt wird.

Lg Tom
 
Zuletzt bearbeitet:
Hallo Moritz,

wenn kostenlos sein soll, kannst du eine Farbkalibration auch mit Siril machen. Sowohl manuell durch Selektion als auch automatisch. Siril kann auch selektiv die Sättigung von einzelnen Farbtönen erhöhen, ohne die Farben des Bildes insgesamt zu verändern.

Die Farbkalibration muss man machen, solange das Bild noch linear ist, d.h. ungestreckt. Ich mache das normalerweise direkt nach dem Croppen und der Ebnung des Hintergrundes.

Durch Strecken blassen Farben aus. Daher erhöhe ich die Sättigung um 30-50% und strecke erst dann. Um in Siril zu bleiben kannst du auch zuerst einen asinh Stretch machen. Der schont die Farben. Ein asinh Stretch verhindert, dass helle Bereiche ausbrennen. Dadurch erhalten sich auch die Sternfarben besser. Man muss allerdings etwas aufpassen, da in den hellen Bereichen schnelle Farbsättigungsartefakte entstehen.

Durch das Strecken verändern sich die Farbtöne auch etwas. Das ist der Punkt an dem ich bis jetzt mit Freeware gescheitert bin. Für das kleine Budget gibt es allerdings noch Startools. Das ist im Vergleich zu den anderen Astrotools am Markt sehr günstig und verarbeitet Farben und Luminanz getrennt. D.h. damit kannst du strecken und gleichzeitig noch kräftige Farben erhalten. Damit habe ich allerdings noch nicht so viel Erfahrung. Meine bisherigen Versuche endeten alle in schrecklich bunten Bildern. Da es Leute gibt, die dem Tool vernünftige Bilder entlocken können, muss es aber irgendwie gehen.

CS Joachim
 
Hallo Moritz,

ich sehe schon da fehlt es noch an allen Ecken ;)
Natürlich die Bildgewinnung muss passen, ohne vernünftige Daten geht halt mal nix.
Auch RAW ist Pflicht sowie die Bearbeitung in tiff und 16 bit

Mit selektiver Farbkorrektur meine ich nicht die einzelnen Farben in der Gradationskurven, in Affinity gibt dazu z.B "HSL" und die "Selektive Farbkorrektur" wie das im Photoshop heiß weiß ich nicht.

Den Anhang 175911 betrachten

Den Anhang 175912 betrachten

Und dann arbeitet man auch mit Masken um Bereiche gezielt zu bearbeiten oder zu schützen wie z.B. den Hintergrund.
Auch hilft es aus den RGB Kanälen ein Luminanz Ebene zu erstellen und die Farbe Ebene getrennt zur Luminanz Ebene zu bearbeiten.
Aber wie schon geschrieben dazu braucht es natürlich auch ordentliche Daten, nur ein paar Regler schieben reicht leider nicht :)

Gruß
Carsten
Hallo Carsten,
danke für die Tipps! Ich habe mich schon auf die Suche nach PS- Tutorials gemacht, und ich kann sagen dass ich definitiv noch keine selektive Farbkorrektur mit PS gemacht habe..ich werde berichten.

Mit dem Jpg Format habe ich begonnen, weil's auch eine Empfehlung für Anfänger war in einem meiner Bücher, aber RAW Format bringt schon deutlich mehr Spaß. Für die Bearbeitung in PS muss ich auf 8 Bit runter gehen, um mit Ebenen arbeiten zu können. Wie ist das bei deinem Programm? Mit Masken habe ich bei PS bislang auch nichts zustande gebracht, ist irgendwie kompliziert. Aber ich bleib dran. :D
Hintergrundlimitierung: Belichte solange bis du noch nicht "Hintergrund limitiert" bist, das bedeutet das das Histogramm nicht oben anschlägt (also abgeschnitten wird) und das Weltall eine orange Grundfärbung bekommt
Hallo Tom,

danke für deine Antwort! Den orangenen Effekt habe ich tatsächlich schon gehabt. Du meinst, das Histogramm sollte in y-Richtung nicht ins Limit gehen? Da werde ich mal drauf achten. Ich hatte zuletzt 4 Minuten belichtet, das hat schon ziemlich gerauscht und der Himmel war auch nicht dunkel genug.
Wenn ich die ISO erhöhe, wandert das Histogramm aber in x- Richtung gegen weiß?

Gruß Moritz
 
@lunic82 genau hier ein Bild zur veranschaulichung:
sss.JPG
vs
Unbenannt.JPG


Beide sind im 1/3 Bereich aber links ist definitiv Hintergrund limitiert und Rechts ist fast ideal. (Bitte beachte die BIlder sind nicht vom selben Objekt, rechts war Rosettennebel (deshalb der Rot Ausschlag) und links Andromeda. Ich will nur Veranschaulichen.) Durch die Belichungszeit von etwa 3-4 Minuten haben beide Bilder trotzdem einen guten Dynamikumfang. Würdest du eine kurze Belichtung machen und nur mit ISO so pushendass du auf 1/3 kommst, würden die "berge" viel viel schaller sein. Beim stretchen würdest du diese dünnen Berge auseinanderzerren, sie würden starke Zacken aufweisen statt einen weichen verlauf. wie eine "Welle" ;)
 
@lunic82 genau hier ein Bild zur veranschaulichung:
Den Anhang 175959 betrachten vs Den Anhang 175960 betrachten

Beide sind im 1/3 Bereich aber links ist definitiv Hintergrund limitiert und Rechts ist fast ideal. (Bitte beachte die BIlder sind nicht vom selben Objekt, rechts war Rosettennebel (deshalb der Rot Ausschlag) und links Andromeda. Ich will nur Veranschaulichen.) Durch die Belichungszeit von etwa 3-4 Minuten haben beide Bilder trotzdem einen guten Dynamikumfang. Würdest du eine kurze Belichtung machen und nur mit ISO so pushendass du auf 1/3 kommst, würden die "berge" viel viel schaller sein. Beim stretchen würdest du diese dünnen Berge auseinanderzerren, sie würden starke Zacken aufweisen statt einen weichen verlauf. wie eine "Welle" ;)

Moin,

ich hoffe es ist ok wenn ich mich hier mal kurz mit einer kleinen Frage mit einklinke.

Kann man die 1/3 Histogrammregel und Hintergrundlimitierung auf Astrofarbkameras (z. B. ASI 294mc} genauso anwenden?
Oder muss man da eher auf was anderes achten?

Gruß Mathias
 
@Astrozombie Pauschal würde ich sagen ja, da auch farb Astrokameras eine Bayermatrix verwenden.

Jedoch durch aktive Kühlung, Hintergrundbelichtet, usw ist der Sensor einer Astrofarbkamera fortschrittlicher und im Vorteil gegenüber einer umgebauten Systemkamera. Da kann ein guter Dynamikumfang bereits mit kürzeren Belichtungszeiten und höherer ISO erreicht werden vllt....Aber ich habe da keine Erfahrungswerte!

Lg Tom
 
Wenn Du eine Astrokamera verwendest, solltest Du das Ausleserauschen (read noise) mit Hintergrundsignal überkommen. Das kommt also auf den eingestellten Gain und die Lichtverschmutzung an. Für die ASI294MC reichen bei Bortle 5, gain 120 schon 15-20 Sekunden aus (ohne LP-Filter, natürlich). Du kannst aber auch länger belichten, wenn Du keine Sterne übersättiget, dann hast Du nicht so viele Daten zu verarbeiten.

Eine sehr technische Tabelle mit Minimalbelichtungszeiten gibt es in diesem Thread: Gain and Sub-exposure calculation spreadsheet for the ZWO ASI183 and 294 - Page 2 - Experienced Deep Sky Imaging - Cloudy Nights

Bezüglich Farben: Wenn du eine „normale“ Kamera benutzt, hilft wirklich nur, die Lichtverschmutzung zu verlassen oder mehr Aufnahmen zu stacken (d. h. längere Gesamtbelichtung). Alternativ ginge natürlich auch eine schnellere Optik. Ich hab mir Deine Andromeda angeschaut, und ich denke, ohne mehr Einzelbilder wird das nicht viel besser. Peil mal 4 Stunden Gesamtzeit an.
 
Moin,

ich hoffe es ist ok wenn ich mich hier mal kurz mit einer kleinen Frage mit einklinke.

Kann man die 1/3 Histogrammregel und Hintergrundlimitierung auf Astrofarbkameras (z. B. ASI 294mc} genauso anwenden?
Oder muss man da eher auf was anderes achten?

Gruß Mathias

Hallo Mathias, solange du niemanden in einen Zombie verwandelst, alles gut. :D

Bezüglich Farben: Wenn du eine „normale“ Kamera benutzt, hilft wirklich nur, die Lichtverschmutzung zu verlassen oder mehr Aufnahmen zu stacken (d. h. längere Gesamtbelichtung). Alternativ ginge natürlich auch eine schnellere Optik. Ich hab mir Deine Andromeda angeschaut, und ich denke, ohne mehr Einzelbilder wird das nicht viel besser. Peil mal 4 Stunden Gesamtzeit an.

Hallo,

danke für den Tipp! Eine schnellere Optik kommt eigentlich für mich nicht in Frage, ich habe ja schon f/5. Wenn ich die anderen Beiträge richtig deute, dann bin ich ja limitiert, was die Dauer der Belichtung pro Lightframe angeht, muss also die Anzahl an Aufnahmen erhöhen. Das habe ich auch schon selbst erlebt, mit M81/M82. Da habe ich 4 Minuten pro Bild belichtet bei ISO 800, aber das Ergebnis war weniger gut, als erhofft. Wenn auch nicht orange, so hatte ich doch merkliches Rauschen, hatte aber auch zu wenige Darks gemacht.

Im Nachhinein hätte ich besser mal ISO 400 eingestellt. Leider variiert die Dunkelheit meines Beobachtungshimmels schon ziemlich, mal vom Mond abgesehen. Auch abhängig vom Stand der Objekte am Himmel aufgrund Uhrzeit/Jahreszeit ändert sich die Hintergrundhelligkeit, sodass ich da kaum feste Werte veranschlagen kann, ist eigentlich eher jedes Mal ein Versuch, die Einstellungen möglichst gut den Gegebenheiten anzupassen, ohne groß auf Erfahrungswerte zurückgreifen zu können.

Gruß Moritz
 
Zuletzt bearbeitet:
Also, meine Erfahrung ist generell, dass es nicht gar so sehr auf die Einstellungen an der Kamera oder die Kamera ankommt (d. h. ob Dein Histogramm jetzt bei 50% oder 75% liegt), sondern auf die Gesamtbelichtungszeit. Wenn Du 20h mit 30s pro Bild bei ISO 100 belichtest wirst Du ein super Bild bekommen im Vergleich zu 1/2 Stunde mit 4 Minuten pro Bild bei ISO 400 (angenommen letzteres wäre die „Idealeinstellung“). Die Kalibrierung (mind. 30 passende Darks und Flats und Bias/Flat Darks) muss natürlich stimmen, und dithern sollte man auch.
 
Also, meine Erfahrung ist generell, dass es nicht gar so sehr auf die Einstellungen an der Kamera oder die Kamera ankommt (d. h. ob Dein Histogramm jetzt bei 50% oder 75% liegt), sondern auf die Gesamtbelichtungszeit. Wenn Du 20h mit 30s pro Bild bei ISO 100 belichtest wirst Du ein super Bild bekommen im Vergleich zu 1/2 Stunde mit 4 Minuten pro Bild bei ISO 400 (angenommen letzteres wäre die „Idealeinstellung“). Die Kalibrierung (mind. 30 passende Darks und Flats und Bias/Flat Darks) muss natürlich stimmen, und dithern sollte man auch.
Es hat schon seinen Sinn das Histogramm bei 1/3 oder 1/4 zu belichten. Ich persönlich würde das nicht unterschätzen.

Belichtet man das Histogramm, sagen wir auf deine vorgeschlagenen 50% oder 75% werden die Sterne überbelichtet bzw verlieren ihre natürliche Farbe. Es wären also weitere schwächer belichtete Aufnahmen notwendig für die natürlichen Sternfarben.
Wird das Histogram unter 1/4 belichtet läuft man Gefahr, das feine Details im Schwarz untergehen und beim Herausarbeiten stark bzw. früh im stretchen anfangen werden zu rauschen. Da helfen auch keine Darks mehr. Ergo weitere anders belichtete Aufnahmen.

Die Belichtung auf 25-33% Histogramm ist ein Kompromiss aus Sternfarbe erhalten, Feine Details mit gutem SNR Verhältnis und Dynamikumfang.

Ich gebe dir aber recht das eine größere Gesamtbelichtungszeit und Dithern zu definitiv besseren Endergebnissen führt.

Lg Tom
 
Ich gebe Dir recht, dass man die Sterne nicht überbelichten sollte. Das hatte ich eigentlich vorausgesetzt, hätte ich aber bei einem Ratschlag für Anfänger vielleicht noch eigens erwähnen sollen. Bei welcher Belichtung das passiert, kommt aber natürlich sehr auf die Region, die man abbildet, die Optik (V. a. Öffnung), Himmel und Kamera an.

Eine zu kurze Belichtung bedeutet, dass das Bild nicht hintergrundlimitiert wird, sondern vom Ausleserauschen dominiert ist. Das Ergebnis ist also schlechter als bei optimaler Belichtung. Wieviel schlechter hängt vom Ausleserauschen ab, da sind moderne CMOS-Kameras mit z. B. Sony-Chips schon sehr niedrig. Eine Canon 1000D steht natürlich nicht so gut da, aber schon die 2000D hat z. B. ein sehr niedriges Ausleserauschen.
 
Hallo,

ich verstehe das jetzt so:

Einstellbar sind am Teleskop eigentlich nur Dauer und Anzahl der Belichtung sowie Empfindlichkeit des Sensors, sprich ISO-Wert. Der Blendenwert ist ja fest, Brennweite auch. Dithern - ob manuell oder per Software - lasse ich mal außen vor.

Was die Einstellung des ISO-Wertes, also die Lichtempfindlichkeit des Sensors betrifft, kann man mit einer Kamera mit niedrigem Ausleserauschen einen höheren ISO-Wert fahren, bevor der Sensor zu sehr rauscht. Gleichzeitig läuft man damit Gefahr, dass die Sterne überbelichtet werden. Und wenn der Hintergrund zu hell ist, durch Streulicht, Mondschein etc, und sich das Objekt dadurch weniger vom Hintergrund abhebt, sollte man den ISO-Wert absenken, um die Limitierung durch den Hintergrund zu vermeiden. Im Ergebnis nützt einem das niedrige Ausleserauschen auch nur dann etwas, wenn der Himmel/Streulicht/Hintergrund etc einen hohen ISO-Wert zulässt.

Was die Belichtungszeit pro Frame angeht, führt eine zu lange Belichtung zu Überbelichtung/Übersättigung der Sterne. Aber ich denke, das kommt stark auf das Objekt an. Ich habe jetzt mal testweise ein Einzelbild von meinem Orion-Nebel, der von selbst schon leuchtet wie eine Laterne, geprüft. Belichtungszeit 3 Minuten bei ISO 800, dabei ist vor allem das helle Zentrum, aber auch die Sterne ringsrum, überbelichtet. Andererseits frage ich mich, ob ich da bei weniger Belichtungszeit und gleicher ISO auch den gleichen Detailgrad erreicht hätte, was den feinen Nebel ringsherum angeht. Zumindest habe ich richtig knallige Farben rausholen können, und die waren von Anfang an im Bild, da habe ich nicht groß nachbearbeiten müssen.

Was aber das Beispiel von Carsten angeht, da ist auf dem Ausgangsbild auch keine Farbe zu sehen, aber nach der Bearbeitung schon. Ob das Bild jetzt mit 30x 1 Minute oder 1x 30 Minuten gemacht wurde, wäre mal interessant zu wissen. :)

Generell frage ich mich, ob bei kurzer Belichtung (bis 30 Sekunden pro Bild) überhaupt genügend Licht auf dem Sensor landet, um daraus später ein Gesamtbild zu machen. Ich habe, unabhängig von der Farbdiskussion, hier im Forum eher den Eindruck gewonnen, dass ein gutes Bild von langer Belichtungszeit pro Bild abhängt, nicht von vielen Stunden mit kurzer Belichtung. Vielleicht kommt es da auch aufs Objekt an? Schwach leuchtende Objekte dürften von langer Einzelbildbelichtung doch generell profitieren, kurze Belichtung ist eher ein Kompromiss, wenn es das Objekt nicht anders zulässt?

Gruß Moritz
 
Hallo Moritz,

das ist so falsch. Sobald das Rauschen des Hintergrundes signifikant (also z. B. 5x oder 10x) höher ist als das Ausleserauschen der Kamera, erreichst Du mit längeren Einzelbelichtungen keine Verbesserung des Endergebnis. Das nennt man „hintergrundlimitiert“. Ab dieser Belichtungszeit kann man für das Signal-Rausch-Verhältnis des Gesamt-Stacks das Ausleserauschen der Kamera vernachlässigen. Die oben verlinkte Tabelle berechnet, wann das für die entsprechenden Sensoren der Fall ist.

Beim stacken der Einzelaufnahmen macht man sich zu nutzen, dass das Signal linear mit der Anzahl der Bilder ansteigt, das Rauschen aber nur mit der Wurzel der Anzahl. Man bekommt also mit mehr Einzelaufnahmen ein besseres Signal-Rausch-Verhältnis. Genauso kann man natürlich (wenn man keinen Teil des Einzelbildes dadurch überbelichtet) die Einzelbilder länger als hintergrundlimitiert machen, um z. B. nicht 3000 30s-Bilder zu haben.

Bei sehr hellen Objekten wie dem Orion-Nebel kann es vorkommen, dass die dunklen Anteile nicht hintergrundlimitiert abgebildet werden können, ohne die hellen Anteile auszubrennen - da muss man dann lange und kurze Belichtungszeiten kombinieren oder auf eine Kamera mit höherer Dynamik (also entweder mehr Kapazität pro Pixel oder geringerem Ausleserauschen. Die IMX294-Sensoren haben z. B. 13 Stops Dynamik) wechseln.

Insgesamt ist also die Gesamtbelichtungszeit viel entscheidender als die Aufspaltung in die Einzelaufnahmen, zumindest solange das Einzelbild hintergrundlimitiert ist. Wann das der Fall ist kommt natürlich wesentlich auf das Öffnungsverhältnis, den Sensor, etwaige Filter, und die Lichtverschmutzung an.

Dass bessere Bilder häufig längere Einzelbelichtungszeiten haben, kann z. B. daran liegen, dass diese so lange belichtet werden können, weil wenig Lichtverschmutzung da ist.

Ein höheres ISO bringt dann etwas, wenn der analoge Gain in der Kamera damit erhöht wird, weil das das Ausleserauschen bei CMOS-Sensoren verringert. Wenn nur digitaler Gain verändert wird, bringt das nichts.

Das war jetzt ein ziemlicher Roman, ich würde da ein Buch empfehlen, professionelle Autoren können das viel besser erklären als ich. Falls Englisch gut geht, empfehle ich „Astrophotography Manual“ von Chris Whitehouse.
 
Zuletzt bearbeitet:
Hallo,

danke für deine ausführliche Antwort. Eine hintergundlimitierte Aufnahme zu machen, ist wohl gar nicht so einfach.

Was bei mir aber so langsam einen Sinn ergibt: Viele kurze Einzelbilder haben gegenüber wenigen, dafür langen Einzelbildern, mehrere Vorteile: Das SNR verbessert sich und der Chip wird weniger aufgeheizt. Nebenbei hat man auch die Chance, dass die Sterne runder sind, weil Nachführfehler weniger ins Gewicht fallen. Wenn man den ISO-Wert dann so wählt, dass das Signal nicht clippt, ist man doch eigentlich auf der sicheren Seite. Andererseits kann man das Ausleserauschen mit hohem Gain verringern, aber dann brennen wieder die Sterne aus. Schwierig..

Gruß Moritz
 
Genau, so stimmt‘s (fast: Das SNR zwischen vielen kurzen und wenigen langen Aufnahmen bleibt gleich bei gleicher Gesamtbelichtungszeit gleich). Aber im Prinzip kommt es bei den meisten DSLR und Objekten darauf raus, 25-30% vom Histogramm zu belichten, deshalb passt das als Faustformel.
 
Status
Es sind keine weiteren Antworten möglich.
Oben