Gekühlte Astro Kamera - Farb- oder Mono Version?

Status
Es sind keine weiteren Antworten möglich.
Hallo Sebastian,

hör auf die Leute zu verkackeiern. Nach all Deiner Fragerei im letzten dreiviertel Jahr solltest Du das langsam mitbekommen haben. Und ein eigenes Buch zur Astrofotografiererei hast Du Dir immer noch nicht gekauft?
Willst Du irgendwann mal eigene Fotos machen oder hier nur Leute beschäftigen?

Gruß

*entfernt*
 
Trotzdem ist noch unklar, das schwarz-weiße SII Bild wird Rot? Wo kommt denn die Farbe bei einer Monokamera jetzt plötzlich her?

Beschäftige dich mal mit ein paar Grundlagen digitaler Bildbearbeitung.
Hier zum Beispiel, direkt erste Seite auf Google.
https://www.elmar-baumann.de/fotografie/lexikon/farbkanal.html

Du hast 3 SW Bilder (die einzelnen Filter) und die kannst du beliebig zusammenfügen. Halpha wird auf grün gelegt, trotz das es im Roten strahlt.

Halpha ist zumeist das stärkste Signal. Das menschliche Auge ist im Grünen am empfindlichsten und grün wird am stärksten wahrgenommen. Um diesen Intensitätseindruck am besten vermitteln zu können wird Halpha auf grün zugeordnet.

Du kannst Halpha aber auch auf blau legen, steht Dir alles frei.

Aufnahmen machen und selbst ausprobieren.
 
ok, das war genau die Info die mir noch gefehlt hat :) (y)
Dann sehe ich keinen großen Mehraufwand gegenüber einer OSC. Einmal Filter von OIII auf Ha gewechselt und das wars! Man muss zwar zwei belichtungsserien fahren, aber dafür kann man kürzer belichten weil die Mono viel empfindlicher ist..

Trotzdem ist noch unklar, das schwarz-weiße SII Bild wird Rot? Wo kommt denn die Farbe bei einer Monokamera jetzt plötzlich her?
Und Halpha dem grünen Kanal zugeordnet? Ist Ha nicht die Rot emittierende Wellenlänge?
Sorry, aber es ist verwirrend :)

Die Mono ist nicht signifikant empfindlicher, sie hat eine bessere Auslösung.

Die Hubble Palette liefert Falschfarben. Auch das Blau in den Bicolors kommt rein aus der Bildbearbeitung. OIII ist in Gasnebeln selten so stark, dass es H Alpha komplett überlagert. Da muss man schon gut Hand anlegen, damit das so aussieht. In natürlichen Farben wäre der Bereich mit der OIII Emission meistens blass rosa durch die Überlagerung des starken H Alpha Signals.

Einfach zwei Serien ist nicht das Problem, das Problem ist, dass man oft keine zweite Serie hinbekommt wegen Schleierwolken, Nebel, Nachbars Flakscheinwerfer, Katzen die mit Kabeln spielen, das Guiding auf einmal nicht mehr mitspielt, Fokusdrift, Tau, Frost usw. OSC mit Duoband lässt du einfach laufen und egal was passiert, was bis dahin im Kasten ist, reicht für ein komplettes Bild. Ich hab z.B. aus letztem Sommer hier noch einen Schleiernebel ohne vernünftigen Blau Kanal rumliegen, den ich selbst in 8 Wochen nicht nachholen konnte.

Natürlich kann man sich für alles mögliche noch dies und das ans Teleskop schrauben um dem ganzen entgegen zu wirken. Das wird aber gleich wieder teuer und dann ist da hier und da noch ein weiteres Kabel, das ein bisschen ziehen kann.

Zusammenfassend würde ich sagen Mono macht die besseren Bilder, OSC ist unkomplizierter bei der Aufnahme. In der Bildbearbeitung geben sich beide nicht viel, die OSC hat da auch nicht nur Vorteile.
 
Die Mono ist nicht signifikant empfindlicher, sie hat eine bessere Auslösung.
Nabend!
Um das noch zu präzisieren:
Sobald man vor die Mono einen Farbfilter schraubt, ist sie ungefähr noch so empfindlich wie eine OSC.

Einmal Filter von OIII auf Ha gewechselt und das wars! Man muss zwar zwei belichtungsserien fahren, aber dafür kann man kürzer belichten weil die Mono viel empfindlicher ist..

schön wär's. Man kann mit einem OIII- oder HII- Filter zwar kürzer belichten, aber dann ist auch weniger drauf, weil der transmittierte Spektralbereich sehr eng ist, und viel Licht weggefiltert wird. Typisch sind z.B. ca. 5 nm bei einem HII-Filter, und ca. 100 nm bei einem Rotfilter. Mit HII belichte ich also länger als mit einem Rotfilter. Und mit OIII sehr viel länger als mit grün oder blau.

CS Hoschie
 
schön wär's. Man kann mit einem OIII- oder HII- Filter zwar kürzer belichten, aber dann ist auch weniger drauf, weil der transmittierte Spektralbereich sehr eng ist, und viel Licht weggefiltert wird. Typisch sind z.B. ca. 5 nm bei einem HII-Filter, und ca. 100 nm bei einem Rotfilter. Mit HII belichte ich also länger als mit einem Rotfilter. Und mit OIII sehr viel länger als mit grün oder blau.
Hmmmm, ja verstehe. Und wenn man mit der Mono und einem CCD Nebelfilter (z.B. Optolong L-Pro) einfach 40 Bilder macht und dann alle 40 jeweils dem grünen, dann nochmals separat die selben 40 dem blauen und das selbe nochmals dem roten Kanal zuordnet, was käme dann raus?
 
Hmmmm, ja verstehe. Und wenn man mit der Mono und einem CCD Nebelfilter (z.B. Optolong L-Pro) einfach 40 Bilder macht und dann alle 40 jeweils dem grünen, dann nochmals separat die selben 40 dem blauen und das selbe nochmals dem roten Kanal zuordnet, was käme dann raus?
Hallo Sebastian,

Wie wäre es, wenn du es einfach mal ausprobierst?

Grüße
Silvio
 
Hmmmm, ja verstehe. Und wenn man mit der Mono und einem CCD Nebelfilter (z.B. Optolong L-Pro) einfach 40 Bilder macht und dann alle 40 jeweils dem grünen, dann nochmals separat die selben 40 dem blauen und das selbe nochmals dem roten Kanal zuordnet, was käme dann raus?
Hallo Sebastian,
Du musst Dich wirklich mal mehr mit den Dingen selbst beschäftigen. Diese letzte Frage zeigt deutlich, dass Du nicht das geringste über Fotografie weisst. Nimm doch mal drei gleiche Bilder und ordne sie jeweils R, G und B zu. Also du nimmst R=G=B alle gleich. Da kann doch nur ein graues Bild rauskommen. Erst wenn Du verschiedene Bilder für R,G und B nimmst kommt ein Farbbild heraus, wie Du es dir vorstellst. Nimm drei Lampen, je eine für Rot, Grün und Blau. Machst Du sie alle gleich hell, kommt ein graues bzw. weißes Licht heraus. Drehst Du blau zurück kommen rot und grün durch. Das wird gelb.
 
Ich sag ja: Sebastian verkackeiert euch und findet es immer wieder lustig, wenn Leute darauf eingehen ;)

Gruß

*entfernt*
 
Hmmmm, ja verstehe. Und wenn man mit der Mono und einem CCD Nebelfilter (z.B. Optolong L-Pro) einfach 40 Bilder macht und dann alle 40 jeweils dem grünen, dann nochmals separat die selben 40 dem blauen und das selbe nochmals dem roten Kanal zuordnet, was käme dann raus?
Hallo Sebastian,
Carsten hat Recht, wenn er sagt, dass Du für eine Diskussion über die jeweiligen Vorzüge von Color- oder LRGB die Prinzipien dieser Techniken verstanden haben solltest. Deine Fragen zeigen, dass Du sehr wahrscheinlich nicht weißt, worum es dabei überhaupt geht.
In der Hoffnung, dass Heiko ausnahmsweise nicht Recht hat,
mache ich einen Versuch, Dir die meines Erachtens wichtigsten Dinge vereinfacht zu notieren: ich beschränke mich dabei mal auf die reinen Farben Rot, Grün und Blau; Zwischentöne lasse ich mal außen vor.

Farbige Objekte haben Details, die rot, grün oder blau sind.
Ein rotes Detail ist nicht grün, und auch nicht blau.
Ein grünes Detail ist nicht rot, und auch nicht blau.
Du kommst selbst drauf:
Ein blaues Detail ist nicht rot, und auch nicht grün.

Jetzt geht es darum, in einem Bild jedem Bildpunkt den Helligkeitswert und die Farbe (Farbmischung) möglichst genau zuzuordnen.

Nimmst Du nun das Objekt mit einem SW-Sensor auf, so erhältst Du die Helligkeitswerte der Details, jedoch nicht die Information, welche Farbe diese Details haben.
Dafür aber mit jedem einzelnen Pixel des Sensors, also mit der maximalen Auflösung. Das entspricht der L-Aufnahme (Light)
Hier geht es um die möglichst feinen Strukturen des Objektes.

Wiederholst Du die Aufnahme mit einem Rotfilter vor dem Sensor, so werden nur noch die roten Details vom Sensor „gesehen“.
Aber wieder von jedem einzelnen Pixel des Sensors, also wieder mit der maximalen Auflösung. Das entspricht der R-Aufnahme.

Dann wird das Ganze mit einem grünen, und mit einem blauen Filter wiederholt, sodass am Ende vier Aufnahmen vorliegen:
Ein hoch aufgelöstes SW-Bild, ein hoch aufgelöstes Rot-Bild
und jeweils ein Grün- und Blau-Bild, ebenfalls hoch aufgelöst.

Diese vier Bilder werden dann in der EBV verarbeitet, und jedem Bildpunkt wird sein Helligkeitswert und seine Farbe zugeordnet.
Das Ergebnis ist ein Farbbild, mit der maximalen Auflösung des Sensors.

Das läßt sich auch mit anderen Filtern machen, H-Alpha, OIII und wie sie alle heißen. Mit jeder Aufnahme wächst der Informationsgehalt, und immer feinere Details lassen sich darstellen. Auch nur mit R, G und B allein würde das funktionieren. Das ist dann RGB und nicht LRGB.

Viel Arbeit, großer Technikaufwand, viel Arbeit bei der Bildbearbeitung, aber das bestmögliche Resultat.

Bei der Color-Fotografie passiert dagegen Alles auf einmal.
Die Colorsensoren haben die Rot-, Grün- und Blaufilter bereits eingebaut. Z.B. mit einer Bayer-Matrix. Ein Bildpunkt besteht hier aus vier SW-Pixeln, davon hat einer einen Rotfilter, einer hat einen Blaufilter, und zwei haben Grünfilter. Auch hier sehen die Pixel mit Rotfilter nur rote Details, die mit Blaufilter nur die blauen Details und so weiter.

Du erkennst: Bei einem Color-Sensor sehen nur ein Viertel der Pixel die roten Details, ein weiteres Viertel die blauen, und die Hälfte sieht Grün.
Darin ist die schlechtere Auflösung des Colorsensors begründet,
im Vergleich mit Monochromsensoren gleicher Pixelanzahl.

Da die Farben nur von einem Teil der Pixel aufgenommen werden, muss entsprechend länger belichtet werden, im Vergleich mit Aufnahmen, bei denen alle Pixel für die entsprechende Farbe empfindlich sind.
Dafür enthält jedes Bild bereits alle Informationen.

Weniger Arbeit, keine Filter, kein Filterrad, günstigere Kamera, schnelleres Ergebnis.
Der Preis dafür ist eben die geringere Auflösung.

Ich habe hier bei weitem nicht alle Kriterien um diese beiden Aufnahmetechniken angesprochen, es geht hier nur um einen ganz groben Überblick.
Ich empfehle Dir, mal die Videos von Frank auf YouTube anzusehen,
Dieses Video z.B. . Alles schön erklärt, mit vielen Bildern und Beispielen.

Dann wirst Du über so manche Frage, die Du hier gestellt hast, selbst lachen können. Viel Spaß dabei!

CS

Dietmar
 
Hallo Sebastian,
Wie wäre es, wenn du es einfach mal ausprobierst?

Grüße
Silvio
Hallo Silvio, das würde ich gerne, aber dann müsste ich eine Mono Kamera kaufen.
Der Hintergrund meiner Fragen ist aber eben erst herauszufinden, ob ich eine OSC oder eine Mono kaufen soll.

@ Heiko
Bitte lass das. Ich verkackeiere niemanden und meine Fragen sind ernst gemeint.
Und ja, ich lese auch Bücher, aber manche Fragen sind speziell und nicht in allen Büchern zu finden.
Danke

Ich danke allen. Ich stehe bei der Mono/Color Thematik noch sehr am Anfang, was ich nicht bestreite. Da fehlen mir offensichtlich einige Grundlagen (was nun nicht gleich bedeuten muss, dass ich nicht das geringste über Fotografie weiss..).
Na jedenfalls haben mir eure Antworten sehr weiter geholfen.
Besten Dank und schöne Grüße
Sebastian
 
Hallo Sebastian,

z.B. hier:

und in vielen anderen Antworten zu Deinen Fragen hat man Dir doch schon viel erklärt. Aber Du fragst und fragst und fragst und fängst mit nichts an. Das ist natürlich nicht verboten. Aber da frage ich mich halt, was das soll. Das ist auch nicht verboten.

Und wenn Du eine Erklärung zwischen Monochrom- bzw. Schmalbandfotografie und Fotografie mit einem Farbsensor in Deinen Büchern zur Astrofotografie nicht gefunden hast, dann hast Du Tomaten auf den Augen. Das ist eine der wesentlichen Dinge, die man da üblicherweise findet und ganz und gar nicht speziell.

Gruß

*entfernt*

PS: @Dietmar, positiv gesehen nutzen Erklärungen wie Deine wenigstens anderen Einsteigern, die wirklich damit anfangen wollen.
 
Zuletzt von einem Moderator bearbeitet:
Heiko, so wie du das darstellst ist das nicht, darum ist deine Aufregung fehl am Platz. Ehrlich gesagt habe ich alles was Dietmar im Beitrag #39 schreibt bereits gewusst und auch so verstanden, wollte aber nicht unhöflich sein und es so mitteilen. (Danke trotz dem Dietmar!)
Es lag hier einfach ein Missverständniss vor.

Um die bekannte Hubblepalette zu erstellen, wird das schwarz-weiße SII Bild Rot, Halpha dem grünen Kanal und OIII dem blauen Kanal zu geordnet, so bekommst du ein Farb- bzw. RGB Bild.
Ausgehend von diesem Beitrag, war mir nicht ganz klar was mit "zu geordnet" gemeint ist. Ich hatte gedacht, man könne dann vieleich! das selbe Bilderset in der Bildbearbeitungs Software einem Kanal (einer Farbe) zuordnen (z.B. roter Kanal) und das Softwareprogramm würde sich dann automatisch die roten Anteile "herausziehen" (oder so ähnlich). Die selbe Prozedur dann mit blau und grün.
Das funktioniert aber anscheinend so nicht. Na gut, hätten wir das geklärt.
..finde ich auch dass die Beiträge eine wertvolle Hilfe auch für andere Einsteiger bieten.
Gute Nacht und CS
 
Hallo Sebastian,

du kannst dir ja mal Datensätze von Astros geben lassen, eben L, R, G, B, Ha, OIII, und SII, dann kannst du diese Dateien mit gängigen Programmen zusammenbauen. Dann wird dir klar wie es geht.
wenn du magst kann ich dir auch Daten geben.
aus einem R und einem G und einem B wird ein RGB. Aus dem RGB und L machst du ein LRGB.
In Astroart ist das supereinfach. Zeige ich dir gerne auch in einer Teamviewersession auf deinem Rechner.
es gilt aber immer die Regel: mit schlechtem Rohmaterial kann man keine Sensationellen Bildergebnisse erzielen. Keine Angst, anfangen und einfach mal machen. wenn du alles erst theoretisch durchdringen willst, kommst du nicht zum wesendlichen. Mal den Zeugs rauszutragen und Aufnahmen machen.
Gruss
Peter
 
Hallo Peter, ist im Prinzip eine sehr gute Idee, so könnte ich die Zeit überbrücken bis ich die Sachen alle zusammen habe. Nur glaube ich wäre der Weg mit der Mono für den Anfang vielleicht doch zu "übermotiviert" für mich - denn leider funktioniert es nicht so wie ich mir das gedacht hatte - wie ich heute gelernt habe. Ausserdem würde ich doch gerne mit PixInsight üben, es gibt mittlerweile sehr gute Tutorials im Netz dazu.
Was mich also interessieren würde wären Datensätze aus einer Farbkamera (ohne Filter) + vielleicht noch welche mit Filter (Narrowband). Da könnte ich zuerst üben die in PixInsight separat zu registrieren und dann später zu kombinieren. Na jedenfalls wären Farbkamera Datensätze prima, wenn du welche hättest? (oder sonst jemand?) Müssen zum Üben ja nicht viele sein.
CS, Sebastian
 
Was mich also interessieren würde wären Datensätze aus einer Farbkamera (ohne Filter) + vielleicht noch welche mit Filter (Narrowband). Da könnte ich zuerst üben die in PixInsight separat zu registrieren und dann später zu kombinieren. Na jedenfalls wären Farbkamera Datensätze prima, wenn du welche hättest? (oder sonst jemand?) Müssen zum Üben ja nicht viele sein.

Der Thread ist ja eh schon auf Abwegen...
Auf Astrobin gibt es einen großen „Public Data Pool“ mit vielen tollen Rohbildern und Rohstacks zum runterladen. Auf deepskywest.com gibt es ebenfalls giveaway Data sets https://deepskywest.com/give-away/

runterladen und los legen... PixInsight (4 Wochen free trail falls du es noch nicht gekauft hast) oder Gimp, Photoshop CS2, ...

Viel Erfolg!
 
Der Hintergrund meiner Fragen ist aber eben erst herauszufinden, ob ich eine OSC oder eine Mono kaufen soll.
Hallo Sebastian,
nimm doch einfach eine DSLR und setze ein Objektiv vorne drauf mit moderater Brennweite. Dann hast du eine schöne, tragbare Ausrüstung, für die du auch keine schwere oder teure Montierung brauchst. Kann man auch später mit größerer Ausrüstung immer brauchen. Und du hast keine Probleme mit dem Sampling, mit Fokusdrift, mit Pipapo, sondern kannst einfach loslegen - ohne Autoguiding, Klapprechner und dem ganzen Schnickschnack kannst du dich auf das Wesentliche konzentrieren und maximal viele Erfahrungen sammeln. Und deine Vorstellungen von deinem "richtigen" Setup noch etwas reifen lassen!

Hoschie
 
Status
Es sind keine weiteren Antworten möglich.
Oben