Gibt es Linienfilter per Software?

Klaus85

Aktives Mitglied
Gibt es Linienfilter per Software?

Hi,
gibt es eigentlich schon eine Software bei welcher man ein Farbbild
schmalbandig in S/W-Werten durchstimmen kann?
Das sollte doch möglich sein.
Leider relativ breit aber durchstimmbar geht das in so mancher Fotosoftware.

Viele Grüße Klaus
 
Moin,

breitbandig wie Du schreibst, ja, aber in den nm-Breiten wie die Linienfilter liegen, unbekannt.

CS Jörg
 
Hallo Klaus,

Meinem Verständnis nach kann das mathematisch nkcht möglich sein.

Ein Pixel stellt ja die Summe der Signale aller Wellenlängen dar. Jeweils für r, g und b. Man kann also sagen, welches Signal aus einem dieser filter kommt, und unter der Annahme einer Lichtquelle einer ei zeigen Wellenlänge kann man sicherlich sich anhand der verhältnisse die Wellenlänge bestimmen.

Aber da ja mehrere Wellenlängen gleichzeitig saß aig am bilden, kann diese Rechnung nicht mehr aufgehen.

Stell dir das so vor: der pixel hat den Wert 10. Nun könnte die 10 als 1+9 oder 2+8 und so weiter erreicht worden sein. Vorwärts (also auf die 10 zu kommen, wenn man die Werte kennt) geht sehr simpel. Rückwärts kann man das aber nie bestimmen, da das problem uneindeutig ist.

Soweit reicht zumindest mein Verständnis.

CS Gerrit
 
Hi Gerrit,
gute Überlegung.
Ich sehe das eher als Analyse der Farbmischung aus einem RGB-Pixel die dann einen einzigen Farbwert
in ein S/W Bild übersetzt. Die unterschiedlichen Farbwerte kann das System sonst gäbe es keine Bilder.
Da wäre dann die Bandbreite erst mal abhängig von der Abstufung der Farbwerte aber schon mal ein Anfang.
Werte dazwischen sollten sich errechnen lassen.

Merci und viele Grüße Klaus
 
Anderes Beispiel, dieses mal etwas fundierter: in der akustik kann man einen Ton mithilfe der Fourier Analyse in seine Frequenzen und deren Amplitude aufteilen. Das geht, weil man die Schwingung (den zu messenden Ton) im Zeitverlauf messen kann.

Theoretisch müsste das auch in der Optik gehen. Dazu müsste man aber den zeitlichen Verlauf des Einfallenden Lichts messen können, also mit einer Belichtungszeit in der Größenordnung von der periodendauer von sichtbaren Licht arbeiten. Das sind im kopf überschlagen 10^-15 Sekunden. Also praktisch viel zu wenig.

CS Gerrit
 
Moin,

dass das nur farbmetrisch geht ist wegen des RGB-Verfahrens ohne dies klar, Gerrit hat es dargestellt. Retrogrades Photon-Counting geht natürlich nicht. Aber es wäre hilfreich.

CS Jörg
 
Guten Tag,
ich lese hier mit, weil Bildbearbeitung ein Hobby von mir ist.
Man kann auch Bilder Fourier transformieren, dann auf der Frequenzebene Änderungen vornehmen und dann zurück transformieren. (image Fourier Filter)
In Python gibt es dazu leistungsfähige Bibliotheken.
Das erste Progrämmchen im Link habe ich mal mit einen Bild von mir laufen lassen.

Viele Grüße
Wilhelm
 

Anhänge

  • FT.png
    FT.png
    309,7 KB · Aufrufe: 48
Hallo Wilhelm,

da hast Du aber eine FFT in der Raumdimension und nicht in der Zeitdimension gemacht. Für die spektrale Analyse muss man, wie Gerrit völlig richtig geschrieben hat, das Zeitsignal der einfallenden Lichtwellen mit entsprechend hoher Zeitauflösung samplen (was nach meiner Information technisch gar nicht geht, außer bei langen Wellenlängen - also im Radiobereich).

Es ist daher schlicht nicht möglich, aus gemessenen RGB Bildern irgendwie die Schmalbandinformationen zu rekonstruieren. Sonst würde das auch längst gemacht werden...
 
Hallo radiophotograf,
danke für deine Antwort. In den Demos im Netz werden Hoch- und Tiefpässe demonstriert. Dann sollte es auch mit Bandpassfiltern gehen, meine ich.
Das Problem ist vermutlich, in der Frequenzdomäne die Maske für einen (durchstimmbaren) Bandpass zu generieren.
Werde mich aber noch etwas mehr einlesen.
Viele Grüße
Wilhelm
 
Zuletzt bearbeitet:
Moin,

das liest sich ja spannend. Die Zeitinformation geht m.E. durch die Integration bei der Bildaufnahme verloren, auswerten kann ich ja nur die Quantität pro RGB-Pixel.

CS Jörg
 
Ein Farbbild hat nur 3 Spektralwerte die das „Meßergebnis“ aus der Summenenergie von 3 breitbandigen Filtern ist - hier auf etwas schmalbandiges zu schließen ist nicht möglich, das widerspricht der Informationstheorie
 
In den Demos im Netz werden Hoch- und Tiefpässe demonstriert. Dann sollte es auch mit Bandpassfiltern gehen, meine ich.
Das Problem ist vermutlich, in der Frequenzdomäne die Maske für einen (durchstimmbaren) Bandpass zu generieren.
Nochmal, natürlich ist es ohne Probleme möglich, Filter per Software zu berechnen. Aber dafür müsstest Du auch die entsprechenden Daten, sprich die elektromagnetischen Wellen gemessen mit einer Zeitauflösung von mindestens der doppelten Frequenz (also diverse Terrahertz) aufnehmen und abspeichern können. Nicht umsonst werden doch in der optischen Profi-Astronomie auch heute noch Prismen und Gitter etc. verwendet, um die Spektren zu erzeugen. Das geht aber immer nur für Schlitze oder einzelne Bildpunkte.
 
Hallo,
und schon mal vielen Dank an Gerrit, Wilhelm, albusmw und den Radiograf.
Das sind zwei ganz unterschiedliche Ansätze. Für mein Verständniss
sollte ein Bandpass möglich sein. CaptureOne hat z.B. einen "Equalizer" mit 6 Bändern.
In einer RAW- Datei sind m.W. die einzellnen R, G, und B-Werte gespeichert also auch
das Verhältniss der einzellnen Werte, welches dann einen Farbton ergib. Dieser Farbton
entspricht einer bestimmten Wellenlänge.
Das Licht hierfür als Radiowelle zu betrachten ist sehr spannend.
Ich les' mich da auch gerade 'rein.

Merci Klaus
 
Dieser Farbton entspricht einer bestimmten Wellenlänge.
Das nennt man dominante Wellenlänge, das lässt aber keine Rückschlüsse darauf zu, aus welchem Wellenlängengemisch diese erzeugt wurde.
Wenn du zB eine Natriumlampe ablichtest, bekommst du reingelbes Licht mit 589nm, und hast ein Signal auf Rot- und Grünkanal, welches in der Summe wieder die Dominante Wellenlänge von 589nm ergibt.
Das selbe Ergebnis hättest du aber auch bekommen, bei einem Bild einer auf bernsteinfarben eingestellten RGB LED, die jedoch niemals tatsächliche 589nm emittiert hat.
Das Licht hierfür als Radiowelle zu betrachten ist sehr spannend.
Sind die selben Elektromagnetischen Wellen. Ob das nun Licht, Radio, Röntgen etc genannt wird, ist nur unsere Nomenklatur für einen bestimmten Wellenlängenbereich des gesammten Spektrums, welchen elektromagnetische Wellen abdecken.

LG
Olli
 
Hi Olli,

jetzt habe ich was verstanden. Wenn es aber eben nur um eine Wellenlänge geht, z.B. Ha ist es mit der
Natriumlampe in deinem Beispiel vergleichbar und diese Wellenlänge sollte aus dem Verhältnis von R G u. B-Kanal
bestimmbar sein. Bei einer Farbmischung ist das Problem für mich verständlich.

Vielen Dank Klaus
 
Eine Natriumlampe hat ja nur eine einzige Wellenlänge, 589nm, während die RGB LED eine Mischung aus 530 und 640nm (und beides keine Linien sondern recht breite Bereiche) ist.
Auf dem Kamerapixel werden aber beide Fälle gleich abgebildet, und führen in beiden Fällen zu der gleichen rechnerischen Wellenlänge von 589nm.
Im Falle der RGB LED erhältst du also ein völlig falsches Ergebnis.
Denn die RGB des Pixels suggeriert, dass es sich um 589nm handelt, obwohl die LED das gar nicht kann.
Das Beispiel sollte dazu dienen, zu zeigen, dass auf den RGB Pixeln eines Bildes eine Natriumlampe mit "echtem" gelb nicht von einer RGB-LED mit "geschummeltem" gelb unterscheidbar ist.
Genauso verhält es sich mit allen anderen Wellenlängen auch.
H alpha ist da keine Ausnahme
H alpha ist mit 656nm sehr rot, ja, und erzeugt nur ein Signal im roten Kanal.
Das tut SII mit 672nm aber auch.
Woher will man hinterher nur anhand dieses roten subpixels wissen, ob SII oder Ha oder eine Mischung aus beiden den Pixel rot gemacht hat?
Oder die 643nm-Linie einer Quecksilberdampflampe, oder eine rote LED mit 640nm, oder eine mit 670nm....

LG
Olli
 
Zuletzt bearbeitet:
Hallo Klaus,
ja, eine Herausforderung.
Unter reconstruction methods from RGB to hyperspectral imaging findet man viel Literatur zum Problem, auch mit machine learning.
Es ist jedenfalls ein spannendes Thema.
Viele Grüße
Wilhelm
 
Um nochmal die Analogie zur Tonaufzeichnung zu wählen.
Ton ist eine zeitliche Aufzeichnung, ein Bild von Licht eine örtliche.
Würde man also Ton so aufnehmen, wie ein Foto das Licht, so hätte man immer nur Momentaufnahmen eines einzigen Zeitpunkts, so würde an der Stelle wo ein Musiker gerade einen Cdur Dreiklang spielt (C E G, 65Hz, 82Hz, 98Hz) nur ein E stehen, weil es der Durchschnittsklang der drei Töne ist, so wie der Pixel an der Stelle, wo rot und grün eingegangen ist, gelb aussieht.
Schaut man sich nun die RGB Werte der Subpixel an, ist es als würde man eine Equalizeraufzeichnung dieses Moments von dem dort positionierten Mikrofon öffnen. Denn der Equalizer zeigt wie auch die RGB Subpixel nur Frequenzbereiche an.
Man bekommt im o.g. Beispiel dann die Anzeige 70% auf dem 65Hz Band und 30% auf dem 125Hz Band.
Daraus wieder zurück auf einen Cdur Dreiklang zu schließen ist schlicht nicht möglich.

Ich hoffe das veranschaulicht das etwas und stiftet nicht noch mehr Verwirrung.

LG
Olli
 
Hi,
ich arbeite öfters mit Audiosoft- und Hardware z.B. Cedar Cambridge, iZotope, da ist es sogar möglich nur einen bestimten z.B. Gitarrenakkord
aus einem Musikstück (Mischsignal) zu entfernen oder von Dur in Moll zu wandeln.
Auch der Analyser vom FabFilter ist so fein abgestuft, dass Akkorde sichtbar identifizierbar sind wenn man weiß wieviel Hz welcher Ton hat.
So sehe ich im Moment noch die Lösung im Farbton, da ein Ha die "drei",(eigentlich vier) Pixel (RGGB) in einem anderen prozentualen Verhältnis
anspricht als ein OIII.
ob dann Ha + SII abgebildet wird, weil zu eng beieinander, ist für den Anfang noch nicht so entscheident.
It's a challenge. @Wilm-52 merci für den Tipp. Hab das hier gefunden und das ist schon mal ziemlich klasse:
Mal schaun und vielen Dank.
Klaus
 
Zuletzt bearbeitet:
Man kann sicherlich mit Methoden des Machine Learnings eine (oder die) wahrscheinlichste Lösung berechnen lassen, wie Halpha sein könnte. Das basiert dann auf Vorwissen (engl. prior knowledge) hinsichtlich der bekannten Astroquellen und anderen physikalischen Gesetzmäßigkeiten. Das ist aber etwas anderes als aus den RGB Werten direkt die Schmalbandwerte zu bestimmen. Man kann ja mit Wall-e auch Bilder erzeugen, in dem man nur ein paar Wörter eingibt - das würde ich aber nicht mehr als "Messen" bezeichnen.
 
Hi,
ich arbeite öfters mit Audiosoft- und Hardware z.B. Cedar Cambridge, iZotope, da ist es sogar möglich nur einen bestimten z.B. Gitarrenakkord
aus einem Musikstück (Mischsignal) zu entfernen oder von Dur in Moll zu wandeln.
Auch der Analyser vom FabFilter ist so fein abgestuft, dass Akkorde sichtbar identifizierbar sind wenn man weiß wieviel Hz welcher Ton hat.
Eigentlich wollte ich damit verdeutlichen, wie unterschuedlich das zum Foto ist. Das geht halt einfach nicht.
So sehe ich im Moment noch die Lösung im Farbton, da ein Ha die "drei",(eigentlich vier) Pixel (RGGB) in einem anderen prozentualen Verhältnis
anspricht als ein OIII.
ob dann Ha + SII abgebildet wird, weil zu eng beieinander, ist für den Anfang noch nicht so entscheident.
Und woher weißt du zB bei einem helltürkisen Pixel (40%R, 70%G, 80%B)
ob du nun ein Gemisch aus H alpha, OIII und Hbeta oder ein Kontinuumstrahler hast?
Oder beides gleichzeitig?
Ich würde dir ja einen Dados empfehlen.
Oder ein Filterkit zur Spektralanalyse.
Hat schon Gründe, warum es sowas gibt.
Es gibt vieles, was schneller ist als Schall, sodass man da mit vielen einfachen Methoden die Frequenzen auseinander nehmen kannst.
Bei Licht gibt es leider keine Abkürzungen.
Mal ganz abfesehen davin, dass du bei Tonaufnahmen die Zeitverlaufskomponente der Aufnahme hast, die Wellen selbst werden Welle für Welle abgebildet.
Bei Fotografie gibt es das schlicht nicht.
Ich fürchte du verrennst dich hier total in etwas, was völlig unmöglich ist.

Du hast ja offenbar ahnung von Tontechnik.
Stell dir vor, alles was du an Daten von einem Musikstück bekommst, wäre eine Aufzeichnung eines 3-Kanal Equalizers.
Einmal 20-200Hz, dann 200-2000Hz,und dann 2000-20000Hz.
Und aus den Intensitätsverteilungen dieser drei Kanäle sollst du nun nicht nur Tonarten, sondern einzelne Töne bestimmen.
Es ist schlicht völlig unmöglich.
Aber genau so ist der Versuch aus den RGB Subpixeln eine Wellenlänge zu bestimmen.

LG
Olli
 
Ums nochmal zu verdeutlichen:

IMG_20230530_184806.jpg

Der türkise Lichtschein der linken Bildhälfte ist durch G und B Kanal einer RGB LED entstanden,
RGB-kw-Spektrum-1024x1024.jpg

der türkise Lichtfleck rechts mit einer Taschenlampe (gute alte Glühbirne) und OIII Filter.
astronomik-oiii-ccd_trans.png


Anhand der Subpixelwerte kann man nichtmal diese beiden außerordentlich unterschiedlichen Spektren unterscheiden.

LG
Olli
 
Hi Olli,
das ist angekommen und Ja ich brauchte ein leises Hobby als Ausgleich zum Beruf ;-)
Es schwer sich ein Experiment ausreden zu lassen.
Aber klar viel Nebel leuchten in Ha und OIII etc. die würde ein derartiger Filter einfach übersehen.
So ganz geb' ich noch nicht auf und beschäftige mich mal mit dem Tipp von Wilhelm.

Danke Dir u. Grüße
Klaus
 
Zuletzt bearbeitet:
Oben