Hmmmm, ja verstehe. Und wenn man mit der Mono und einem CCD Nebelfilter (z.B. Optolong L-Pro) einfach 40 Bilder macht und dann alle 40 jeweils dem grünen, dann nochmals separat die selben 40 dem blauen und das selbe nochmals dem roten Kanal zuordnet, was käme dann raus?
Hallo Sebastian,
Carsten hat Recht, wenn er sagt, dass Du für eine Diskussion über die jeweiligen Vorzüge von Color- oder LRGB die Prinzipien dieser Techniken verstanden haben solltest. Deine Fragen zeigen, dass Du sehr wahrscheinlich nicht weißt, worum es dabei überhaupt geht.
In der Hoffnung, dass Heiko ausnahmsweise nicht Recht hat,
mache ich einen Versuch, Dir die meines Erachtens wichtigsten Dinge vereinfacht zu notieren: ich beschränke mich dabei mal auf die reinen Farben Rot, Grün und Blau; Zwischentöne lasse ich mal außen vor.
Farbige Objekte haben Details, die rot, grün oder blau sind.
Ein rotes Detail ist nicht grün, und auch nicht blau.
Ein grünes Detail ist nicht rot, und auch nicht blau.
Du kommst selbst drauf:
Ein blaues Detail ist nicht rot, und auch nicht grün.
Jetzt geht es darum, in einem Bild jedem Bildpunkt den Helligkeitswert und die Farbe (Farbmischung) möglichst genau zuzuordnen.
Nimmst Du nun das Objekt mit einem SW-Sensor auf, so erhältst Du die Helligkeitswerte der Details, jedoch nicht die Information, welche Farbe diese Details haben.
Dafür aber mit jedem einzelnen Pixel des Sensors, also mit der maximalen Auflösung. Das entspricht der L-Aufnahme (Light)
Hier geht es um die möglichst feinen Strukturen des Objektes.
Wiederholst Du die Aufnahme mit einem Rotfilter vor dem Sensor, so werden nur noch die roten Details vom Sensor „gesehen“.
Aber wieder von jedem einzelnen Pixel des Sensors, also wieder mit der maximalen Auflösung. Das entspricht der R-Aufnahme.
Dann wird das Ganze mit einem grünen, und mit einem blauen Filter wiederholt, sodass am Ende vier Aufnahmen vorliegen:
Ein hoch aufgelöstes SW-Bild, ein hoch aufgelöstes Rot-Bild
und jeweils ein Grün- und Blau-Bild, ebenfalls hoch aufgelöst.
Diese vier Bilder werden dann in der EBV verarbeitet, und jedem Bildpunkt wird sein Helligkeitswert und seine Farbe zugeordnet.
Das Ergebnis ist ein Farbbild, mit der maximalen Auflösung des Sensors.
Das läßt sich auch mit anderen Filtern machen, H-Alpha, OIII und wie sie alle heißen. Mit jeder Aufnahme wächst der Informationsgehalt, und immer feinere Details lassen sich darstellen. Auch nur mit R, G und B allein würde das funktionieren. Das ist dann RGB und nicht LRGB.
Viel Arbeit, großer Technikaufwand, viel Arbeit bei der Bildbearbeitung, aber das bestmögliche Resultat.
Bei der Color-Fotografie passiert dagegen Alles auf einmal.
Die Colorsensoren haben die Rot-, Grün- und Blaufilter bereits eingebaut. Z.B. mit einer Bayer-Matrix. Ein Bildpunkt besteht hier aus vier SW-Pixeln, davon hat einer einen Rotfilter, einer hat einen Blaufilter, und zwei haben Grünfilter. Auch hier sehen die Pixel mit Rotfilter nur rote Details, die mit Blaufilter nur die blauen Details und so weiter.
Du erkennst: Bei einem Color-Sensor sehen nur ein Viertel der Pixel die roten Details, ein weiteres Viertel die blauen, und die Hälfte sieht Grün.
Darin ist die schlechtere Auflösung des Colorsensors begründet,
im Vergleich mit Monochromsensoren gleicher Pixelanzahl.
Da die Farben nur von einem Teil der Pixel aufgenommen werden, muss entsprechend länger belichtet werden, im Vergleich mit Aufnahmen, bei denen alle Pixel für die entsprechende Farbe empfindlich sind.
Dafür enthält jedes Bild bereits alle Informationen.
Weniger Arbeit, keine Filter, kein Filterrad, günstigere Kamera, schnelleres Ergebnis.
Der Preis dafür ist eben die geringere Auflösung.
Ich habe hier bei weitem nicht alle Kriterien um diese beiden Aufnahmetechniken angesprochen, es geht hier nur um einen ganz groben Überblick.
Ich empfehle Dir, mal die Videos von Frank auf YouTube anzusehen,
Dieses
Video z.B. . Alles schön erklärt, mit vielen Bildern und Beispielen.
Dann wirst Du über so manche Frage, die Du hier gestellt hast, selbst lachen können. Viel Spaß dabei!
CS
Dietmar