SharpCap: Erfahrungswerte mit intelligenter Analyse / Prognose?

Status
Es sind keine weiteren Antworten möglich.

martinvoelkel

Aktives Mitglied
Hallo zusammen!
Ich habe mich (siehe Thread im selben Forum) dazu entschlossen, mit meiner ASI 1600 MC-Cool ab sofort die Aufnahmesoftware „SharpCap“ einzusetzen.
Aktuelle Version ist 3.2, ich verwende dabei die „Pro“ – Variante, die gegenüber dem kostenlosen Pendant mit 12 €/Jahr in moderatem Umfang zu Buche schlägt.
SharpCap ist sehr einfach zu bedienen; wer z.B. mit APT, Nebulosity, FireCapture und Co. vertraut ist, kann den Umgang mit SharpCap im Rahmen seiner Grundfunktionen in 30 Minuten erlernen.
Nun interessieren mich die Zusatzfunktionen, welche sich auf dem Papier nahezu revolutionär lesen:
Eine „Sensoranalyse“ vermisst in einer ausführlichen Prozedur den Sensor der Kamera, um damit Kennlinien zu erstellen für die Zusammenhänge „Gain“, „Offset“, „Rauschen“- genau so, wie man es auch vom Kamerahersteller kennt.
Diese Sensoranalyse fliesst nun in ein sogenanntes „Smart histogram“ ein. In Abhängigkeit von der gewählten bit – Tiefe (bei der ASI also z.B. 16 respektive effizient 12 Bit bzw. 8 bit), dem Gain / Offset und der Belichtungszeit zeigt nun ein mehrfarbiger horizontaler Balken über dem Histogramm eines Vorschaubildes, bis zu welcher Helligkeitsstufe das Ausleserauschen die Bildinformation dominiert und von wo an mehr Info als Rauschen vorhanden ist. Zweck soll es sein, Bittiefe, Gain und Offset und Belichtungszeit so zu wählen, dass die der Signalpeak – welcher bei üblichen Deep – Sky – Aufnahmen in der Regel 20% von der linken Achse entfernt liegt, minimal rechts vom roten / orangenen Balken (mit kritischem Rauschen) liegt.
Und SharpCap verspricht noch mehr: Misst man vor einer Aufnahmeserie die Helligkeit des Himmelshintergrundes nahe dem Objekt, das man fotografieren will, so will SharpCap sagen können, welche Kombinationen von Gain, Belichtungszeit und Gesamt – Aufnahmedauer zu hinsichtlich des SNR optimalen Ergebnissen führen!
Das alles klingt extrem spannend, jedoch habe ich keinerlei Erfahrung damit. Daher die Frage: Konnte schon jemand hier im Forum die Sensoranalyse, das Smart Histogram und die Vorschläge zur optimalen Aufnahmezeit testen und damit Erfahrung sammeln?
Hat denn sogar jemand Erfahrungen mit live stacking? Wenn das alles so funktionieren würde, käme man ja schnell auf die Idee, statt weniger Aufnahmen mit einigen Minuten sogar einige tausend Aufnahmen im Bereich von vielleicht 10-30 Millisekunden zu machen (um das Seeing zu minimieren), jeweils einen Großteil davon direkt live zu stacken (tausende Einzelframes sind ansonsten nicht handelbar) und diese Stacks nachher mit PI zu integrieren……
Zunächst alles noch Utopie. Mal gespannt, wer hier schon Erfahrungen nachweisen kann. Bitte unbedingt auch die eingesetzte Kamera benennen!

Viele Grüße und CLS

Martin
 
Hallo Martin,
Das alles klingt extrem spannend, jedoch habe ich keinerlei Erfahrung damit. Daher die Frage: Konnte schon jemand hier im Forum die Sensoranalyse, das Smart Histogram und die Vorschläge zur optimalen Aufnahmezeit testen und damit Erfahrung sammeln?

ich habe das mal ausprobiert, allerdings nur als Trockenlauf, nicht in der Praxis.
Bin daher auch an Erfahrungen interessiert.

Hat denn sogar jemand Erfahrungen mit live stacking? Wenn das alles so funktionieren würde, käme man ja schnell auf die Idee, statt weniger Aufnahmen mit einigen Minuten sogar einige tausend Aufnahmen im Bereich von vielleicht 10-30 Millisekunden zu machen (um das Seeing zu minimieren), jeweils einen Großteil davon direkt live zu stacken (tausende Einzelframes sind ansonsten nicht handelbar) und diese Stacks nachher mit PI zu integrieren……

Das Live Stacking nutze ich recht häufig. Das ist der eigentliche Grund, warum ich Sharpcap verwenden, für "normale" Aufnahmen nehme ich immer APT.
Aber ich belichte eigentlich immer mind. 10-30 Sekunden pro Einzelbild, je nach Objekt und Helligkeit des Himmelshintergrunds.
Bei kürzeren Belichtungszeiten habe ich oft ganz banal das Problem, dass Sharpcap nicht genug Sterne fürs Alignment findet, und man extrem Stretchen muss, um überhaupt was zu sehen.

Deine Idee mit extremst kurzen Belichtungszeiten ist interessant, aber das m.E. nicht praxistauglich.
Zum einen dauert das Abspeichern eines Bildes im Verhältnis zu lange. Selbst wenn das nur 1s pro Bild wäre, hättest du bei 30ms pro Einzelbild einen Overhead von 1000s nur für das Speichern (das sind über 16 Minuten!), um auf 30s (!) Belichtungszeit zu kommen. Dazu kommt noch das Ausleserauschen, das du dann auch 1000x hättest...
Zum anderen bringt dir das doch gar nichts. Um das Seeing zu minimieren müsstest du all diejenigen Frames vor dem Stacking wegwerfen, bei denen es schlechtes Seeing gab. Und das macht/kann Sharpcap nicht (sowas macht z.B. eine Spezial-Software fürs Stacking von Planetenbildern mit viel Rechenaufwand, aber erst im Nachgang).

Ach ja, ich vergaß: Ich nutze eine ZWO ASI071MC Pro.

CS
Stefan
 
Hallo Martin und Stefan,

ich habe in letzter Zeit auch öfter Bilder mit dem Livestackingmodul von Sharpcap gemacht. Im Prinzip käme ich mit der ASI294MC auf eine mögliche Rate von 2,5 Bilder pro Sekunde inklusive Livealignment, Dunkelbildabzug und Hellbilddivision. Ich beschränkte mich aber auch auf ca. 8 Sekunden, um genügend Sterne fürs Aligment der Aufnahmen zu haben und den Anteil des Ausleserauschens in Grenzen zu halten.
Ich sehe den Vorteil nicht so sehr im "Lucky Imaging", dafür ist die Aufnahmezeit noch zu lang, sondern darin "Unlucky Imaging" zu vermeiden. Man kann also vereinzelte kurze Montierungs- und/oder Nachführfehler vermeiden oder aussortieren, genauso wie unachtsame Stöße an die Montierung, Windstöße o.ä.. Eine Guidingkamera brauche ich dann erst gar nicht. Eventuelle Schwankungen der Seeingamplitude (also nicht der Frequenz) im Minutenbereich kann ich damit bei entsprechendem Filtern aussortieren, genauso wie die Effekte einzelner Wolkenfetzen oder Flugzeuge. Bei mehrere Minuten langen Aufnahmen müßte ich das alles mitnehmen oder mehrer Minuten Belichtungszeit wegschmeißen.
Bei 8 Sekunden habe ich auch kaum Probleme mit der Dynamik im Einzelframe und auch nicht im mehrere Minuten langen Livestack, denn der wird dann mit 32 bit abgespeichert. Also mit viel mehr Dynamik als bei 12 oder 14-Bit bei einer Langzeitaufnahme. Da sind die hellen Bereiche entweder ausgebrannt oder die schwachen Bereiche dann kaum aufgelöst.
Also ich sehe im Livestacking mit Frames in Sekundenbereich durchaus Vorteile - nicht überall, aber oft.

Gruß

*entfernt*
 
Hallo Heiko,

wow, das klingt sehr nachahmenswert. :sneaky:

Ein paar Fragen habe ich:
Wie viele dieser 8s-Frames lässt du denn von Sharpcap stacken?
Drehst du dann dafür bei deiner 294er den Gain hoch, oder fotografierst du mit Gain 0?

Wie sortierst du denn die "unlucky" Frames aus? Vertraust du darauf, dass Sharpcap diese Frames nicht stackt, da keine Alignment-Sterne gefunden werden, oder sitzt du vor dem Bildschirm und klickst die Frames nach visueller Kontrolle weg? Weil sonst sind die ja bei Sharpcap im Stack mit drin.

Und: Machst du Dark- und Flat-Abzug in Sharpcap, oder erst später?

Ich habe Sharpcap bisher nur gelegentlich für EAA genutzt, für Sternführungen vor Publikum bei uns an der Sternwarte, noch nicht für "normale" Aufnahmen.

CS
Stefan
 
Hallo Stefan,

zu Deinen Fragen:
Ich habe mich jetzt auf das Abspeichern der Stacks alle ca. 3-4 Minuten eingeschossen - also ca. 23-30 Bilder pro Stack. Den Gain drehe ich hoch, bis das Histogramm fast rechts angekommen ist. Da nutze ich die Dynamik gut aus und das Ausleserauschen ist laut Angaben der Hersteller bei hohen Gains am geringsten. Die Unlucky Frames sortiere ich über den FWHM- und den Brightness-Filter aus. Man muß den Schwellwert geeignet setzen, daß z.B. Frames mit höherem FWHM nicht mitgestackt werden.
Dark- und Flatbilder muß man vor dem Stacken machen, da die nach dem Stacken nicht sinnvoll abgezogen bzw. dividiert werden können. Also die Flats und Darks muß man pro Frame während dem Stacken abziehen/dividieren. Das geht aber recht flott.
Es würde mich auch interessieren, was andere damit an Erfahrung machen. Da hat natürlich jeder andere Bedingungen. Bei top Montierungen unter klarem Berghimmel mag das anders aussehen als in der Flachlandvorstadt mit mobiler Montierung.

Gruß

*entfernt*
 
Hallo Heiko,

da juckt es mich jetzt richtig in den Fingern, danke dir für deine Erfahrungen.
Ich habe das Glück, in Deutschland die 10micron GM3000 unserer Sternwarte nutzen zu können, aber halt leider mitten im lichtverseuchten Stuttgart (hier hat es um die 18 mag/sec² oder schlechter)...
Die meisten meiner "brauchbaren" Astrofotos sind in Namibia entstanden. ;-)

CS
Stefan
 
Hallo Stefan, hallo Heiko!

Vielen lieben Dank für Eure sehr wertvollen Erfahrungsberichte!

Stefan: Die Tatsache, dass bei sehr kurzen Belichtungszeiten evtl. noch nicht genügend Sterne für's Alignment sichtbar sind, leuchtet mir ein. Selbst wenn man den Gain deutlich hochzieht, wird das tatsächlich der limitierende Faktor sein.
Deiner Rechnung stimme ich allerdings nicht vollständig zu: Beim Stacken kann man ja durchaus auf das Speichern der Einzelframes verzichten - somit entfällt hier die Wartezeit für die Datenübertragung. Durch das Kappa - Sigma - Verfahren wird zudem das Ausleserauschen (genau wie auch das Signal selbst) der Einzelframes nicht addiert, sondern durch einen sinnvollen, statistischen Mittelwert ersetzt. Durch Korrekturbilder (Subtraktion eines Masterdarks, Division durch MasterFlat, welcher mit FlatDarks kalibriert wurde) sollte dann das Rauschen weitestgehend entfernt werden. Oder unterliege ich hier einem Denkfehler?

Heiko: Du führst die sehr wertvollen Hinweise von Stefan noch etwas weiter aus. So konntet Ihr mich überzeugen, dass eine Belichtungszeit von 5 bis 30 Sekunden DER Bereich ist, in dem es Sinn macht, das Stacking praktikabel zu nutzen.

Eine Frage hätte ich noch an Euch beide: Von "Nebulosity" kommend, vermisse ich in SharpCap die Info, mit welchem Offset aufgenommen wird (ich vermute, das Programm passt den Offset gemäß der ZWO - Kennlinie automatisch an den eingestellten Gain an). Da ich bisher die Integration immer mit PixInsight mache, weiß ich, dass Lights, Darks, Flats, FlatDarks und BIAS immer mit demselben Gain und Offset erstellt werden müssen).

Und noch eine Frage: Stellt Ihr als Bildqualität "RAW 16" oder "MONO 16" ein? Das war mir noch nicht ganz klar. Das Debayern mache ich üblicherweise in PI - daher brauche ich auch keine Farb - Preview.

Auch in der vorletzten Nacht konnte ich mich wieder am Stacking versuchen. Obwohl das Guiding in PHD akzeptabel - aber nicht optimal - lief (zwischen +2" und -2", selten Maximalpeaks von bis zu 4"), wurden bei M 104 die ersten 50 Frames zu je 4 Sekunden absolut sauber gestackt. Dann plötzlich fingen alle Sterne an, einen Strich zu bilden - obwohl die in den Einzelframes absolut rund waren. Es kann also nicht vom Guiding her rühren, sondern eher vom Alignment (hatte ich mit den Defaultwerten laufen). Was meint Ihr? Vielleicht hats damit zu tun, dass die Gegend um M 104 herum bei 1300 mm Brennweite sehr dünn besetzt ist....

Auch wüsste ich gerne - auch wenn's wohl eine sehr dumme Frage ist: Sind 10 gestackte Einzelframes zu je 6 Sekunden wie ein Dark zu 60 Sekunden zu sehen oder sollte man auch hier die Darks genauso stacken?

So, das waren erstmal genug Fragen - vielleicht fällt Euch ja was dazu ein. Auch ich lasse gerne von mir hören, wenn ich was Neues rausfinden konnte.

Herzlichen Dank nochmals und viele Grüße aus Rheinhessen!

Martin
 
Hallo Martin,

ich antworte Dir schon mal.
In Sharpcap iat der Offset unter Brightness zu finden und muss manuell eingestellt werden.
Zu den strichförmigen Sternen kann ich nichts sagen, kann eigentlich nur passieren wenn das Alignment beim Stacking abgeschaltet wurde.
Die Empfindlichkeit der Sternerkennung, für das Stacken, kann man auch einstellen.
Die Darks sollen immer mit den gleichen Werten für die Lights erstellt werden.
Also in deinem Fall je 6 Sekunden.
Übrigens wenn Du guidest kannst du auch die Dither Funktion in Sharpcap aktivieren.
Das verhindert bei einer Drift das streifige Rauschmuster.
Das lohnt sich aber nur bei kürzeren Belichtungszeiten. In Sharpcap läuft die Aufnahme während des ditherns weiter.
Erst nach beendeter Aufnahme läuft die nächste zu stackende Aufnahme.
APT stoppt währen des ditherns die Aufnahme, das wünschte ich mir auch bei Sharpcap.
Außerdem vermisse ich da auch ein Tool zu, erstellen eines Aufnahmeplans....vielleicht kommt das mal noch.

VG Cl.-D.
 
Hallo Martin,

Stefan: Die Tatsache, dass bei sehr kurzen Belichtungszeiten evtl. noch nicht genügend Sterne für's Alignment sichtbar sind, leuchtet mir ein. Selbst wenn man den Gain deutlich hochzieht, wird das tatsächlich der limitierende Faktor sein.
Deiner Rechnung stimme ich allerdings nicht vollständig zu: Beim Stacken kann man ja durchaus auf das Speichern der Einzelframes verzichten - somit entfällt hier die Wartezeit für die Datenübertragung. Durch das Kappa - Sigma - Verfahren wird zudem das Ausleserauschen (genau wie auch das Signal selbst) der Einzelframes nicht addiert, sondern durch einen sinnvollen, statistischen Mittelwert ersetzt. Durch Korrekturbilder (Subtraktion eines Masterdarks, Division durch MasterFlat, welcher mit FlatDarks kalibriert wurde) sollte dann das Rauschen weitestgehend entfernt werden. Oder unterliege ich hier einem Denkfehler?

Ja, du machst einen Denkfehler.
Denn du verwechselt das Auslesesignal mit dem Ausleserauschen. Nach dem Abschluss jeder einzelnen Aufnahme in deiner Kamera bekommst du zusätzlich ein Auslesesignal, das rauschbehaftet ist. Und dieses Rauschen ist eben das Ausleserauschen (streng genommen kommen noch weitere Effekte wie z.B. Quantisierungsfehler dazu, aber das lasse ich mal weg). Das Auslesesignal sorgt für einen Offset (der im Zweifel in jedem Pixel systematisch ein kleines bisschen anders ist), das Ausleserauschen sorgt dafür, dass der Wert des Auslesesignals (also des Offset) bei jedem Bild ein kleines bisschen anders ist. Durch Bias-Abzug wirst du nur den Offset los, aber nicht das Rauschen!
Deswegen willst du eigentlich so lange belichten "bis der Arzt kommt", um das Ausleserauschen nur ein Mal zu haben (und nicht 1000 Mal).

Das gleiche gilt bei den anderen Korrekturframes: Auch ein Dark hilft dir nicht, das Dunkelrauschen zu entfernen. Mit einem Dark wirst du nur das Dunkelsignal los, das Dunkelrauschen bleibt dir immer erhalten (einziges Mittel dagegen: Kühlen).

Bzgl. Wartezeit: Jedes einzelne Bild wird ja von der Kamera auf den PC übertragen und dort irgendwo zwischengespeichert. Bei meiner ASI071 sind das ca. 20MB pro Bild, wenn ich mich recht erinnere. Die Übertragungs- und Speicherdauer überschreitet m.E. dann in jedem Fall die von dir gewählten 30ms.
Probier's aber doch einfach mal aus: Nimm eine Serie von 100 Einzelbildern a 30ms auf bzw. verwende diese im Live-Stacking, stoppe die Zeit, und teile durch 100. Dann hast du deinen Wert. Es würde mich wundern, wenn dieser Wert pro Bild deutlich unter 1s liegen würde... ;-)

Eine Frage hätte ich noch an Euch beide: Von "Nebulosity" kommend, vermisse ich in SharpCap die Info, mit welchem Offset aufgenommen wird (ich vermute, das Programm passt den Offset gemäß der ZWO - Kennlinie automatisch an den eingestellten Gain an). Da ich bisher die Integration immer mit PixInsight mache, weiß ich, dass Lights, Darks, Flats, FlatDarks und BIAS immer mit demselben Gain und Offset erstellt werden müssen).

Ich habe da nie etwas geändert, sondern die Standardeinstellung genommen.
Ja, der Gain bei Lights und Darks muss immer gleich sein. Bias brauchst du wenn du FlatDarks machst nicht (außer du machst "Dark Frame Scaling" in PI).

Und noch eine Frage: Stellt Ihr als Bildqualität "RAW 16" oder "MONO 16" ein? Das war mir noch nicht ganz klar. Das Debayern mache ich üblicherweise in PI - daher brauche ich auch keine Farb - Preview.

Ich fotografiere i.d.R. mit RAW16.
Hinweise zu den Formaten gibt es hier: Camera Basics

Auch wüsste ich gerne - auch wenn's wohl eine sehr dumme Frage ist: Sind 10 gestackte Einzelframes zu je 6 Sekunden wie ein Dark zu 60 Sekunden zu sehen oder sollte man auch hier die Darks genauso stacken?

Ganz ehrlich, auch wenn manchmal was anderes behauptet wird: Es gibt grundsätzlich keine "dummen Fragen". ;-)
Wenn du Live Stacking machst musst den Dark-Abzug aufs Einzelbild anwenden, also ein Master-Dark mit 6s Länge erstellen und in SharpCap anwenden.

CS
Stefan
 
Hallo Stefan!
Das, was Du mir geantwortet hast, muss ich mir erstmal Zeile für Zeile vor Augen führen. Es hat mich doch etwas verwirrt - muss aber auch zugeben, dass ich mehr der praktisch orientierte Astrofotograf bin. Mein Studium (Verfahrenstechnik) liegt mittlerweile schon fast 25 Jahre zurück, und da ich nie als Ingenieur gearbeitet habe, ist der Bezug zur Mathematik bzw. Physik leider fast vollends verloren gegangen. Als Controller habe ich zwar auch den ganzen Tag mit Zahlen zu tun - mehr ald die Grundrechenarten ist da aber nicht drin. So, wie Du schreibst, bist Du mit der Materie evtl. sogar beruflich behaftet?
Auch Dein Hinweis zum "Frak frame scaling" zeigt, Dass Du die Zusammenhänge sehr fundiert kennst.
Das mit den Übertragungszeiten zum PC stimmt natürlich - habe ich vollkommen außer Acht gelassen. Klar: Selbst wenn die Einzelframes nicht auf dem PC gespeichert werden , so werden sie zumindest dorthin übertragen, und da zählt eben die Geschwindigkeit via USB. Werde trotzdem mal ne Messung machen, wieviele Millisekunden das Zwischenspeichern pro Frame dauert.
Die "Camera basics" im Handbuch habe ich gelesen, leider konnte ich den Unterschied zwischen RAW 16 und Mono 16 immer noch nicht verstehen.
Auf alle Fälle ganz lieben Dank für die Informationsfülle!


Joschi:
Auch Dir vielen Dank für die Infos den Offset betreffend!
Heißt das also, ein Offset von 20 ist als Brightness - Wert von 20 einzustellen?
Vielen Dank für Deine Tipps und allzeit clear skies!

Ich werde mal demnächst einige Test vom Wohnzimmer raus in den Garten machen und da mit verschiedenen Parametern experimentieren.......
 
Hallo Martin,

Mono16 ist das unkomprimierte 16Bit Rohdatenformat für monochrome Kameras.
RAW16 dagegen ist das unkomprimierte Rohdatenformat für Farbkameras.
Diese Bilder oder Videos werden monochrom angezeigt. Während der Bearbeitung müssen diese noch debayert werden um ein farbiges Bild zu erhalten.
Der Vorteil ist eine große Ersparnis der Dateigrößen, gerade bei Videos.
Mit dem Offset verhält es sich so wie Du geschrieben hast.

VG Cl.-D.
 
Guten Morgen Joschi,

vielen Dank für die Infos!
Ich bin gerade dabei im "Handbuch für Astrofotografie" die Kapitel über Rauschen, Belichtungszeitoptimierung usw. zu lesen, um die Anmerkungen von Stefan besser zu verstehen. Dieses Buch kann ich übrigens wärmstens empfehlen, es ist so was wie die Bibel unseres Hobbies!
Obwohl man doch schon lange Zeit und immer wieder mit darks, lights, BIAS und Flats zu tunt hat, merkt man schnell, dass man dennoch die Hälfte der zugrunde liegenden Theorie noch nicht verinnerlicht hat :)

Liebe Grüße aus Rheinhessen
 
Hallo Martin,

Hallo Stefan!
Das, was Du mir geantwortet hast, muss ich mir erstmal Zeile für Zeile vor Augen führen. Es hat mich doch etwas verwirrt - muss aber auch zugeben, dass ich mehr der praktisch orientierte Astrofotograf bin. Mein Studium (Verfahrenstechnik) liegt mittlerweile schon fast 25 Jahre zurück, und da ich nie als Ingenieur gearbeitet habe, ist der Bezug zur Mathematik bzw. Physik leider fast vollends verloren gegangen. Als Controller habe ich zwar auch den ganzen Tag mit Zahlen zu tun - mehr ald die Grundrechenarten ist da aber nicht drin. So, wie Du schreibst, bist Du mit der Materie evtl. sogar beruflich behaftet?
Auch Dein Hinweis zum "Frak frame scaling" zeigt, Dass Du die Zusammenhänge sehr fundiert kennst.
Das mit den Übertragungszeiten zum PC stimmt natürlich - habe ich vollkommen außer Acht gelassen. Klar: Selbst wenn die Einzelframes nicht auf dem PC gespeichert werden , so werden sie zumindest dorthin übertragen, und da zählt eben die Geschwindigkeit via USB. Werde trotzdem mal ne Messung machen, wieviele Millisekunden das Zwischenspeichern pro Frame dauert.
Die "Camera basics" im Handbuch habe ich gelesen, leider konnte ich den Unterschied zwischen RAW 16 und Mono 16 immer noch nicht verstehen.
Auf alle Fälle ganz lieben Dank für die Informationsfülle!

danke für die Blumen! ;-)
Ich habe ehrlicherweise eine Weile gebraucht, bis mir da die Zusammenhänge klar geworden sind. Trotz Elektrotechnikstudium (ebenfalls 25 Jahre her) und Vorlesungen zu Systemtheorie und Messtechnik...
Ich kann da das Buch "The Deep Sky Imaging Primer" sehr empfelen.
Außerdem hat Frank Sackenheim zum Thema Signal und Rauschen kürzlich ein sehr anschauliches Video gemacht (zwei Teile):

Viele Grüße
Stefan
 
Hallo Martin,

Ich bin gerade dabei im "Handbuch für Astrofotografie" die Kapitel über Rauschen, Belichtungszeitoptimierung usw. zu lesen, um die Anmerkungen von Stefan besser zu verstehen. Dieses Buch kann ich übrigens wärmstens empfehlen, es ist so was wie die Bibel unseres Hobbies!
Obwohl man doch schon lange Zeit und immer wieder mit darks, lights, BIAS und Flats zu tunt hat, merkt man schnell, dass man dennoch die Hälfte der zugrunde liegenden Theorie noch nicht verinnerlicht hat :)

welches Buch meinst du? Den "Dittler - Martin - Koch"?

Grüße
Stefan
 
Hi Stefan,

genau: Das Buch von Dittler / Martin / Koch.
Mit englischsprachiger Literatur tue ich mir etwas schwer - daher gefällt mir dieses Kompendium bisher am Besten.
Danke auch für die Links zu Youtube!
 
Status
Es sind keine weiteren Antworten möglich.
Oben