Woher kommt das Rauschen?

Status
Es sind keine weiteren Antworten möglich.
Hallo zusammen,

dass eine Drift vorliegt, da wette ich drauf. Auch wenn man das beim blinken vielleicht nicht gleich sieht. Aber der typische Verlauf quer durchs Bild (und nicht entlang der x oder y Achse) ist m.E. mehr als eindeutig.
Das ändert aber nichts am Problem, denn durch das Dithering sollte dann mit oder ohne Drift kein Rauschmuster mehr sichtbar sein.

Ecki du benutzt PixInsight?
Bist du sicher, dass du bei diesem Bild nicht aus Versehen einen anderen Stackingmodus gewählt hast, bzw. die Rejection (muss man ggf. extra anwählen)? Es sollte sowas wie Sigma Combine oder ähnliches sein mit Werten für Sigma.
Ansonsten habe ich nach wie vor die Darks im Verdacht. Hast du sowas wie Dark Optimization angeklickt? Unbedingt ausschalten bei den CMOS Kameras!
Falsche Temperatur bei den Darks oder generell bei den Bildern muss auch ausgeschlossen werden. Mal aus Versehen die Kühlung falsch eingestellt oder ganz vergessen ein zu schalten und schon hat man den Schlamassel. Ist jedem sicher schon passiert.

In der Richtung würde ich mal suchen.
CS Frank
 
Das Flat gleicht auch unterschiedliche Kapazitäten der einzelnen Pixel aus, denn die Pixel sind nicht alle gleich empfindlich. Insbesondere bei CMOS Kameras.
Hi Frank,

ja schon, ich denke nur, daß eben Größenordnungen dazwischen liegen. Beim Light sind es bei mir 180 bis 300 sec mit rel wenig Signal, beim Flat sind es 0,5 bis 0,6 sec mit erheblich mehr Signal je Frame, womit das Verhältnis von Nutz- zu Störsignal drastisch größer ist beim Flat, locker Faktor 500 bis 1000. Aus demselben Grund spielen diese Größen beim Tageslichtfoto ja auch keine nennenswerte Rolle ;)


dass eine Drift vorliegt, da wette ich drauf

Die Wette gewinnst du vermutlich. Nochmal drüber nachgedacht, kann es eigtl nur noch Walking Noise sein und Ecki hat schlicht eine zu geringe Schrittweite beim Dithern gewählt. Ich bin gespannt, was Ecki mit größeren Dither-Schrittweiten erzielt bzw was am Ende sich als Ursache herausstellt...

In den Metadaten zu allen Frames müßte ja sowas wie Temperatur zu finden sein (zumindest bei meiner 071er ist das so)...

Neugierig gespannte Grüße,
Okke
 
ja schon, ich denke nur, daß eben Größenordnungen dazwischen liegen. Beim Light sind es bei mir 180 bis 300 sec mit rel wenig Signal, beim Flat sind es 0,5 bis 0,6 sec mit erheblich mehr Signal je Frame, womit das Verhältnis von Nutz- zu Störsignal drastisch größer ist beim Flat, locker Faktor 500 bis 1000. Aus demselben Grund spielen diese Größen beim Tageslichtfoto ja auch keine nennenswerte Rolle ;)

Trotzdem der hohen Gesamtintensität hast Du von der Größenordung das selbe Rauschen (Ausleserauschen) im Flat, wie auch im Light. Das sieht man dann nicht mehr so deutlich, weil der Kontrast zu groß ist. Es ist aber immer noch da. Und genau so, wie beim Einzellight verstecken sich auch im Flat schwache Signale (unterschiedlcihe Pixelempfindlichkeit) im Rauschen. Wie Frank schon richtig bemerkt, gleicht das Flat "auch unterschiedliche Kapazitäten der einzelnen Pixel aus". Nur: die müssen erst aus dem Rauschen geholt werden. Und das geht nur mit einer angemessenen Anzahl von Einzelfalts. Genauso wie bei den Lights auch. Da macht man doch das selbe.

Grobe, also konstrastreiche Strukturen wie die Vignettierung, kann man auch schon mit einem einzelnen Flat erschlagen. Aber für's finetuning muß man empfindlicher werden.

Ob das jetzt auch für Eckis Problem eine eine Lösung darstellt, sei dahin gestellt. Da spielen vielleicht auch andere Faktoren eine Rolle.

Gruß,
Peter
 
Zuletzt bearbeitet:
Guten Morgen,

ich habe noch einmal mehrere Dinge überprüft:

Darks und Lights haben die selben Parameter (Gain, Exposure, Temperatur). Sie sind direkt nacheinander mit SGP gemacht worden.

Ich habe den Stack wiederholt, ohne Darks. Das Pattern is vorhanden.

Ich habe den Stack wiederholt, OHNE die Subframes registriert zu haben. Die Sterne etwa 3 x so lang, wie sie sein sollen. Die Richtung, in die die Sterne gestreckt sind, korrespondiert mit der Richtung des "Walking Man Patterns". In diesem Stack ist das Pattern nicht zu sehen!

Darüber muss ich erstmal nachdenken.

Herzliche Grüße und ein wolkenfreies Wochenende!
Ecki
 
Na, Ecki, damit hast Du doch bewiesen, dass es sich tatsächlich um "walking noise" handelt. Soviele habe ich gestern gelernt, dass sich "walking noise" nur durch das Alignen von Einzelbildern "aufbaut". Entweder wandern die Pixel, oder die Sterne im Bild, jenachdem ob Du nun alingst oder nicht. Und natürlich auch in die gleiche Richtung. Einzelne Pixel sind schwerer im Bild auszumachen, als die durch das "walking" enstehenden Striche (das Pattern). Sterne sind ja ausgedehnt über mehrere Pixel. Deshalb sieht man die auch nach dem Alignen. Einzelnen hellere Pixel gehen eher "unter" im Gewimmel der umliegenden Pixel.
 
Hallo Ecki,

Ich habe den Stack wiederholt, OHNE die Subframes registriert zu haben. Die Sterne etwa 3 x so lang, wie sie sein sollen. Die Richtung, in die die Sterne gestreckt sind, korrespondiert mit der Richtung des "Walking Man Patterns". In diesem Stack ist das Pattern nicht zu sehen!
Dieses Ergebnis zeigt (wie vorher vermutet), dass Drift die eine Ursache für das Muster ist. In einem vorherigen post schriebst Du, dass die Sterne beim Blinken nur "zittern". Das könnte vielleicht auch bedeuten, dass nur in RA gedithert wurde. Falls jedoch tatsächlich in beide Richtungen gedithert wurde, müsste Dither Scale vergrößert werden.

Darks und Lights haben die selben Parameter (Gain, Exposure, Temperatur). Sie sind direkt nacheinander mit SGP gemacht worden.

Ich habe den Stack wiederholt, ohne Darks. Das Pattern is vorhanden.
A) Eine Möglichkeit für dieses Ergebnis ist, dass die Kalibrierung mit dem MasterDark nicht ordnungsgemäß funktioniert hat.

Das kann verschiedene Ursachen haben, z. B.:
- falsches Vorgehen beim Herstellen des MasterDarks oder
- falsche Parameter bei der Kalibrierung der Light frames.

Daher folgende Fragen:
1) Wie erzeugst Du das MasterDark aus den einzelnen dark frames (genaues Vorgehen und Einstellungen)?
2) Wie sind die Einstellungen bei der Kalibrierung der light frames im Abschnitt 'Master Dark'?
3) Verwendest Du ein MasterBias?


B) Eine andere Möglichkeit für obiges Ergebnis ist, dass bei der Integration der kalibrierten und registrierten light frames falsche Einstellungen für die Pixel Rejection verwendet wurden.

Daher:
4) Wie sind Deine Einstellungen in den Abschnitten 'Image Integration', 'Pixel Rejection (1)' und 'Pixel Rejection (2)'?

Bernd
 
Bei mir wird die Ursache (auch bei Guiding) der Drift sein.
Da ich Leitrohr und Teleskop parallel montiert habe, gibt es immer eine leichte Verwindung je nach Lage.
(das sieht man auch, wenn ich das erste und letzte Bild vergleiche, da gibt es einen leichten Versatz, auch bei den geguideten Bildern)
>> Thema "differential flexing"


Abhilfe würde wohl nur ein OffAxisGuider bringen.
Das ist aber bei meinem APO und ner EOS schwierig...

Gruß Norbert
 
...und hier die Bilder vom M33, geguided!
Ich habe also extremes "differential flexing" drauf, da PHD2 den Stern absolut ruhig hält.
(waren 37x180s)

Vielleicht wird's mit einem anderen Leitrohr besser, ich habe die Schelle vom Beroflex in Verdacht.
 

Anhänge

  • Unbenannt111112.JPG
    Unbenannt111112.JPG
    81,4 KB · Aufrufe: 68
  • Unbenannt2214554654.JPG
    Unbenannt2214554654.JPG
    90,4 KB · Aufrufe: 76
  • Unbenanntdsfgfsdgrsgg.JPG
    Unbenanntdsfgfsdgrsgg.JPG
    33 KB · Aufrufe: 78
Hallo Norbert,

Bei mir wird die Ursache (auch bei Guiding) der Drift sein.
Da ich Leitrohr und Teleskop parallel montiert habe, gibt es immer eine leichte Verwindung je nach Lage.
(das sieht man auch, wenn ich das erste und letzte Bild vergleiche, da gibt es einen leichten Versatz, auch bei den geguideten Bildern)
>> Thema "differential flexing"


Abhilfe würde wohl nur ein OffAxisGuider bringen.
Das ist aber bei meinem APO und ner EOS schwierig...

Gruß Norbert
Übrigens:
Ich als CMOS-"Benutzer" (Canon EOS 600Da) bin natürlich auch Walking-Noise "Leidtragender".
...und ja, ich weiss, dass Dithern die Lösung sein könnte!
Das heisst aber EOS mit Laptop verheiraten, ASCOM Treiber für EOS??? APT???

Das heißt es nicht unbedingt. Soviel ich weiß, kann man mit MGEN als Guider dithern, ohne Laptop-Gedöns.

Bernd
 
und so sieht die Spur vom Pferdekopfbild aus...

Heisst, sobald etwas "Zufall" ins Spiel kommt, minimiert es das "Pattern-Noise".
(Also Drift + PE orthogonal überlagert)

Es ist also besser, nicht zu guiden und nicht so genau einzunorden als guiden und einen leichten Drift zu haben.
(sofern man noch zusätzlich einen PE hat)

Gruß Norbert
 

Anhänge

  • Unbenannt458544451.JPG
    Unbenannt458544451.JPG
    108,8 KB · Aufrufe: 69
...eines muss ich noch anmerken:
Je kleiner meine Objektivbrennweite ist (50mm / 35mm), umso unschöner wird das Pattern Noise.
Das kommt dann daher, dass man nur noch den Drift sieht und der PEC wegen der kleinen Brennweite nicht mehr sichtbar ist.
 
Hallo Norbert,

an den beiden Bilder vom M33 kann man das Problem erkennen. Die Pixel, die das "walking noise" verursachen, liegen wahrscheinlich nicht allzu hoch über den umgebenden Pixelintensitäten und sind somit nur schwierig zu detektieren. Für meine Hotpixel habe ich mir einen Filter geschrieben, der für jedes beliebige Pixel im Bild die 8 umliegenden Pixel nimmt, den Median bildet und mit dem Zentralpixel vergleicht. Überschreitet die Intensität des zentralen Pixels einen Schwellenwert, wird es durch den Median ersetzt. Alternativ geflagt.

Ich habe meinen Schwellenwert auf 5*Median gesetzt. Bin aber noch am testen. Damit identifiziere ich die Hotpixel. Ich habe aber noch nicht probiert, den Schwellenwert kleiner zu setzen. Das ist ja sowas wie Sigma-Klipping. Hast Du sowas schonmal probiert. Da muß es doch sicher auch in den bekannten Kalibrationsprogrammen was zu geben. Oder man trägt die Bad-Pixel in eine Tabelle ein.

Aber wie Du schon richtig bemerkt hast, da gibt es einige (sehr wenige), die sich schon Gedanken darum gemacht haben und auch die Fähigkeit dazu haben, also programmieren können. Das sollte sich dann schon herumgesprochen haben.

Gruß,
Peter
 
an den beiden Bilder vom M33 kann man das Problem erkennen. Die Pixel, die das "walking noise" verursachen, liegen wahrscheinlich nicht allzu hoch über den umgebenden Pixelintensitäten und sind somit nur schwierig zu detektieren. Für meine Hotpixel habe ich mir einen Filter geschrieben, der für jedes beliebige Pixel im Bild die 8 umliegenden Pixel nimmt, den Median bildet und mit dem Zentralpixel vergleicht. Überschreitet die Intensität des zentralen Pixels einen Schwellenwert, wird es durch den Median ersetzt. Alternativ geflagt.
Hallo Peter,
das mit M33 war ein Stack bei welchem ich einfach die Bilder übereinander ohne Ausrichtung gestackt habe (das kann man ja in Astroart ausschalten), genauso wie beim Pferdekopfbild. Somit sieht man anhand den Sternspuren, was genau passiert ist und wie stark der Drift war. Mit Hotpixel hat das nix zu tun.

Noch was:
Das Thema Walking-Noise zieht sich global durchs ganze Bild!
 
Zuletzt bearbeitet:
Ich weiß, das sind keine Hotpixel, das sind "Warmpixel", die nur ein bißchen über dem Level der benachbarten Pixel liegen und sich deshalb bei der Drift "unangenehm" bemerkbar machen. Da reichen schon ein paar ADUs mehr über dem Umgebungsrauschen aus, um dann das Bild zu verstreifen. Deshalb sind die ja so schwer zu detektieren mit der Software.

Im allgemeinen hilft da aber die Hardware mehr, also eine gekühlte Kamera. Die stabilisiert das Pixelrauschen. Aber wem sage ich das. Das weißt Du ja selber.

Gruß,
Peter
 
Zuletzt bearbeitet:
Ich weiß, das sind keine Hotpixel, das sind "Warmpixel", die nur ein bißchen über dem Level der benachbarten Pixel liegen und sich deshalb bei der Drift "unangenehm" bemerkbar machen. Da reichen schon ein paar ADUs mehr über dem Umgebungsrauschen aus, um dann das Bild zu verstreifen. Deshalb sind die ja so schwer zu detektieren mit der Software.
...das ist jetzt deine Theorie.
 
Schau Dir doch Deine eigenen Bilder an: In dem pixel-alignten Bild siehst Du gar nichts von den Warmixeln, die das "walking noise" erzeugen. Weil sich die "Warmpixel" nicht bewegen. Und weil sie nur wenig über dem Umgebumgsrauschen liegen, "verstecken" sie sich quasi darin. Ok, ein paar Hotpixel sieht man schon noch.

Erst wenn Du die Bilder nach Sternen alignst, wandern die Warmpixel und verursachen die Steifen. Je langsamer die Drift ist, desto heller erscheinen sie. Und Du hast sehr viele Warmpixel im Bild, wie es aussieht.
 
...eigentlich ist mir wurscht wie das entsteht, ich will's nur los werden.
Nun, es gibt für das Pattern-Noise Abhandlungen, einfach mal danach suchen.
(Es ist ein CMOS typisches Problem)

Wir haben jetzt halt mal systematisch untersucht, wie es zu Stande kommt und dass es mit dem Drift zusammenhängt.
Weder Darks noch Flats helfen bei der Beseitigung wenn es im Bild ist.
Sollte es eine Software-Korrektur dafür geben, wäre das schon lange in PI oder sonst wo integriert.

Ich habe noch ein paar meiner Bilder untersucht um meine Theorie zu untermauern.
Die, die besser sind, haben alle dieses Wellen-Muster (wenn man die Bilder nur stackt ohne Alignment).
Also keinen reinen Drift, sondern Drift + PE!
Und die, die schlecht sind, haben nur den Drift bzw. der PE war parallel zum Drift.

Und Dithern macht genau sowas, nur noch "zufälliger"...

Anbei noch das Muster meines 135mm Orion Widefields, das auch fast kein Pattern-Noise aufweist.
 

Anhänge

  • Unbenannt5555.JPG
    Unbenannt5555.JPG
    77,7 KB · Aufrufe: 73
Zuletzt bearbeitet:
...und ein letztes Bild.
Das war mit der EQ6 mit "guter" Polsausrichtung ungeguidet auf die Plejaden mit extremen Pattern-Noise.
Scheinbar wird das Pattern-Noise schlimmer, je besser die Einnordung und wenn dann fast nur noch der PE da ist, wird's extrem.

Gruß Norbert
 

Anhänge

  • Unbenannt55.JPG
    Unbenannt55.JPG
    75,7 KB · Aufrufe: 65
  • Unbenannt474485.JPG
    Unbenannt474485.JPG
    130,5 KB · Aufrufe: 69
Solange Du Warmpixel mit "normalen" Pixel mischst beim Aufsummieren, wirst Du auch deren Stärke dadurch vermindern. Je mehr "normale" Pixel Du mit Warmpixel mischst, desto unsichtbarer werden sie. Das ist ja der Trick dabei. Per Zufallsgenerator geht das natürlich am besten. Weil die Warmpixel dann auch keinen zusammenhängenden Strich bilden können. Da wird im besten Fall jedes Warmpixel mit 9 "normalen" Pixel gemischt, wenn Du insgasamt 10 Einzelaufnahmen machst. Bei einer Drift sammelst Du gleich mehere Warmpixel in einem Summenpixel auf. Je langsamer die Drift, desto mehr Warmpixel enthält das Summenpixel und umso heller erscheint es im Bild.

In Deinem rechten Plejadenbild (Pixel-aligned) sieht man die "Übeltäter" doch ganz genau. Die roten, grünen und blauen Punkte im Bild. Die ziehen sich zu Strichen beim Stern-Alignen. Die kann man gut identifizieren. Dann sollte auch was möglich sein meiner Meinung nach.
 
Zuletzt bearbeitet:
In Deinem rechten Plejadenbild (Pixel-aligned) sieht man die "Übeltäter" doch ganz genau. Die roten, grünen und blauen Punkte im Bild. Die ziehen sich zu Strichen beim Stern-Alignen. Die kann man gut identifizieren. Dann sollte auch was möglich sein meiner Meinung nach.
Hotpixel rechnet DSS übers Dark raus.
Nochmal, Pattern-Noise hat nix mit Hotpixel zu tun.

Ich gebe es auf...
Wir drehen uns im Kreis.

Nachtrag:
Wenn man Google bemüht, findet man zu dem Thema "Pattern-Noise" sehr viel, auch in English.
Einfach mal recherchieren...

Edit: und im Anhang was passiert, wenn noch ein Hotpixel übrig bleibt den DSS nicht rausrechnen konnte.
Das ist einfach invers zu dem was ich vorher gezeigt habe.
(Mittlerweile stacke ich mit Kappa-Sigma-Clipping und da bleiben nicht mal mehr Satellitenspuren übrig)
 

Anhänge

  • Unbenannt5445.JPG
    Unbenannt5445.JPG
    45,6 KB · Aufrufe: 60
Zuletzt bearbeitet:
Ich habe Dein Bild genommen und das Rauschen abgeschnitten. Also das gemacht, wovor Frank immer warnt. Aber in diesem Fall ist es angebracht. Alle die hier aus dem Schwarzen herausragenden Pixel tragen zu Deinem "walking noise" mehr oder weniger bei. Je nach Intensität. Dabei überlagen sich natürlich auch Pixel bzw liegen dicht zusammen. Das macht die Driftstriche breiter:

Unbenannt55.png


Screenshot_20191005_201033.png

Hier das zugehörige Histogram, wie ich abgeschnitten habe. Möglicherweise habe ich auch schon zu hart abgeschnitten und es gibt noch mehr Pixel im Untergrund, die dazu beitragen. ich habe bei ca 2 Sigma abgeschnitten.

Was ist denn Deiner Meinung nach Ursache für das "walking noise"?
Was passiert mit den Pixel oben, wenn sie driften? Das sind keine Hotpixel, das sind Warmpixel.

Gruß,
Peter
 
Zuletzt bearbeitet:
...wir kommen dem schon näher, nun erweitere das ganze auch in die negative Richtung. Das Problem bei CMOS ist, das jeder Pixel seinen eigenen Verstärker + eigener Kennlinie hat... Übrigens, des Bild war ohne Darkabzug! Mit Darkabzug schaut's ebener aus.
Es war nur zur Demonstration wie der Drift war und wie es zum Pattern-Noise korreliert.
 
Im dem Histogramm oben ist mir aufgefallen, dass der Grünkanal weniger verrauscht ist als die anderen beiden. Der Peak ist höher. Daraufhin habe Dein aligntest Bild in Farben zerlegt:

RGB_walking_noise.png

Das "walking noise" scheint im Grünkanal wesentlich weniger dominat zu sein, als im Rot- und Blaukanal.

Das könnte mit der Interpolation der Pixel zutunhaben. Am Farbfilter kann es eher nicht liegen. Letztlich werden aus einem Rot- und Blaupixel jeweils 4 Pixel erzeugt. Aber aus zwei grünen Pixeln auch 4. Und Interpolation von Rauschen war noch nie eine gute Idee.

Ich mache das in meinem Kalibrationsprogramm anders. Ich interpoliere nicht. Stattdessen extrahiere ich die einzelnen Farbpixel und setze sie zu einem Bild zusammen. Die beiden Grünpixel mittele ich. Vielleicht hilft das ja. Die interpolation der Farbkanäle einfach zu umgehen. Die Bilder schrumpfen dann natürlich. Die Kantenlänge der Bilder wird halbiert. Information geht dadurch nicht verloren, es wird aber auch keine "neue Information" dazuinterpoliert.

Wenn Du mir Deine Rohdaten einer Aufnahmeserie (auf jeden Fall nicht debayert) per WeTransfer zur Verfügung stellest (per PN Link schicken), kann ich das gerne mal probieren. Vielleicht hilft es ja zumindest bei der Unterdrückung dieses Phänomens.

Das M27 Bild und auch den Orionnebel habe ich damit erzeugt.

Gruß,
Peter
 
Zuletzt bearbeitet:
...kannst du das Canon CR2-Format decodieren?
Zu dem was du machst:
Diese "Binning" Option für Bayer-Bilder gibt's auch in Astroart, ich nutze sie aber nicht, da ich lieber die volle Auflösung haben will und es fast nix an SNR bringt.

Kannst ja deinen Stacker veröffentlichen?
Wenn der das Pattern-Noise entfernt bist der Erste und hast den Durchbruch geschafft.
Vielleicht integrieren deinen Algo ja die anderen in DSS und PI?

Gruß Norbert
 
Hallo Norbert,

es gibt für Python die Möglichkeit (ein Paket), das Canon CR2-Format zu decodieren. Ich habe das zwar noch nicht gemacht. Sollte aber kein Problem sein. In Python geht das in der Regel sehr einfach.

Klar kann ich den Stacker dann publik machen. Der ist allerdings auf Unix programmiert. Was macht denn das Binning in Astroart? Wenn es das Gleiche macht, wie ich und Du keine Verbesserung findest, erübrigt sich das Experiment. Wenn aber nachträglich rebint wird, gibt es noch eine Chance.

Ich habe das mit der Farbcodierung nur aus dem Grund gemacht, weil ich dadurch viel schneller zu einem Ergebnis komme. Mit dieser Reduktion braucht mein Programm für ca 200 Einzelbilder bis hin zum Endbild 10min, mir Debayern dauert es über eine halbe Stunde auf meinem Notebook. Das ist mir eindeutig zu lang. Und es fällt auch kein "Datenmüll" aus Zwischenergebnissen an. Mit FitsWork dauert es sogar mehere Stunden.

Die "volle Auflösung" wird ja nur durch Interpolation der Pixel erzeugt bei Farbkameras. Wenn beim interpolieren zusätzliche Information ins Bild kommt, wäre ich schon skeptisch. Signal/Rauschen ist beim nachträglichen 2x2 Rebinning von RGB Bildern auch nicht zu erwarten. Eben weger der Interpolation.

Gruß,
Peter
 
Hallo Norbert,

danke für die Daten. Ich bin leider erst gestern Abden dazu gekommen, mich damit zu beschäftigen. Ich mußte erstmal mein Programm umstellen, um Deine CR@-Daten einzulesen mit Pythons rawkit. Canon hat ein Chip mt ungerade Zeilenzahl (oder Spalten). Ich habe Angenommen, dass die Bayermatix (RGGB) am Anfang richtig ist und habe die letzte Zeile (oder Spalte) weggeschmissen. So dass die Farben hoffentlich stimmen.

Allerdings hat es nichts gebracht. Auch im Grünkanal ist das "walking noise" zu sehen. Ich habe versucht, den "Schrott" aus Deinen Bildern zu extrahieren:
schrott.png

Da sind zwar auch noch Teile von Sternen drin, aber man kann schon sehen, was los ist, wenn man reinzoomt:

schrott_zoom.png

Neben den Hotpixel gibt es noch jede Menge Warmpixel, die die selben Strichlängen und Breite haben, die die Hotpixel. Das betsatigt also meine Vermutung von weiter oben im Thread. Es sind sehr viele warme Pixel.

Ich werde mal versuchen, weiter mit den Daten zu spielen. Ein Median-Mittelung könnte auch schon viel bringen. Das werde ich probieren. Allerding geht das nicht "on the fly". Deshalb muß ich die alignten Einzelbilder erst herausschreiben und segmebtweise "midianen". Ich habe nur 8GB Memory im Notebook. Sonst fängt der Rechner an zu pagen und zu swappen. Das dauert dann ewig.

Gruß,
Peter
 
Hallo Peter,

einigen wir uns doch drauf, dass es keine "Warmpixel" sind.
Nochmal, jeder Pixel hat bei CMOS seinen eigenen Verstärker und damit auch seine eigene Kennlinie (Halbleiter sind halt mal nicht lineare Bauteile).

Somit hat jeder Pixel seinen eigenen Offset (> sollte das Dark abziehen) und an jeder Stelle im Histogramm einen leicht anderen Faktor, die Kennlinie ist also keine reine Gerade, sonst könnte man ja mit einem Flat auch das kompensieren.

Der Bereich, in welchem man das Muster sieht, ist sehr weit links im Histogramm, d.h. es geht bei einem Einzelbild im Rauschen unter.
Die dunklen Stellen im Bild kommen von Pixeln, deren Gain bei 0,999 liegt, die hellen bei denen er bei 1,001 liegt, sehr vereinfacht ausgedrückt.

Warum man es trotzdem auch bei "hellen" Flächen im Bild sieht:
Weil die Werte bei der EBV nichtlinear gestretcht werden und die zarten Nebel gar nicht so hell sind...
Trotzdem sehr interessant was du da machst und programmierst.

Gruß Norbert
 
Status
Es sind keine weiteren Antworten möglich.
Oben