Cirrusnebel in H-alpha mit ASI294MC-Pro (Farbchip)

Status
Es sind keine weiteren Antworten möglich.

Ehemaliges Mitglied 31195

Hallo,

hier mal ein Versuch, was die Farbkamera ASI294MCpro bei Vollmond im Schmalband bringt. Die Aufnahme habe ich mit dem Omegon 12nm Halpha-Filter und der ASI294MCpro auf NEQ5 gemacht. Die Aufnahmen wurden klassisch 4 Minuten mit Guiding (Metaguide) gemacht - Gesamtaufnahmezeit ca. 4.3 Stunden:

2019-09-14_Cirrus_TS72_294MC_NEQ5-small.jpg


Ist das ok mit 3" oder ist das zu "wischi-waschi"? Ich wohne ja schon im Seeing-Sumpf. Ich habe leider keine Vergleichsmöglichkeit.
Und den H-alpha Vollmond aus der gleichen Nacht im gleichem Maßstab. Der Cirrusnebel ist ganz schön ausgedehnt:
2019-09-15_Moon_TS72_294MC_NEQ5-small.jpg

Vielleicht kann ich in einer mondlosen Nacht noch etwas RGB dazu sammeln.

Größer und mehr Daten hier:
Link zur Grafik: https://astrob.in/kh4idr/0/rawthumb/gallery/get.jpg?insecure

Jetzt wünsche ich mir einen Tribandfilter für die ASI294MC, damit ich Schmalband auch mit etwas Farbe in"einem Rutsch" machen kann. Es gibt neuerdings welche von Altair für ca. 250.- Euro. Hat jemand Erfahrung damit und kann sagen ob die was taugen? Es gibt ja auch welche für über 1000.- Euro.

Viele Grüße

*entfernt*
 
Hallo Heiko
Interessant, wie du da mit einer Farbkamera + H-Alpha Filter Daten gesammelt und daraus ein Bild erstellt hast.
Gefällt mir!
Hätte da Fragen dazu:
Wie bekommst du daraus ein Monobild? - machst du dann aus allen 3 Kanälen eine Luminanz oder nimmst du dazu nur den Rotkanal?
In Astrobin ist 2x2 binning (2660x1912 Pixel) angegeben => die Kamera hat soweit ich das gesehen habe 4144 x 2822 Pixel=> 2072x1411 - hast du da ein Mosaik gemacht?
 
Hallo Reinhard,

das Bild habe ich erst wie ein Farbbild behandelt. D.h. Darkabzug beim Raw (das Flat war leider mißlungen) , Debayern und dann Stacken. Dann erst habe ich die Farbkanäle des Gesamtbildes addiert, also nicht Pixel für Pixel in der Bayermaske vor dem Stacken. Das Ergebnis dürfte das gleiche sein wie bei Binning. Das Nutzsignal in den Farbkanälen ist bis auf einen Proportionalitätsfaktor für die Dämpfung unter der Bayermaske bei Schmalband ja dasselbe. Nicht aber das Rauschen. Das hat in den einzelnen Kanälen nicht den gleichen Wert. Deshalb kann man durch Addition der einzelnen Kanäle das S/R-Verhältnis noch mal etwas verbessern. Das entspricht einem 2x2 Softbinning. Das Bild hat hier aber dann noch 100% Größe und wurde in Astrobin nur auf 70% verkleinert und nicht auf 50% wie bei Pixelbinning. Sorry, das führt zu dem Mißverständnis. Sollte ich vielleicht doch korrigieren.
Wenn man sich die Dämpfungskurven für die ASI294MC anschaut dann lässt Rot ca. 98% des H-alpha-Signals durch, grün noch fast 40% und Blau nur ca. 2%. Gemittelt wären das (98% + 2 x 40% + 2%)/4 = 45% der Sensitivität eines Sensors ohne Bayermaske. Lang nicht so gut wie Mono, aber auch nicht wirklich grottenschlecht. Deshalb kann man Schmalband mit einem Farbsensor machen. Das ist etwa der Unterschied wie mit F/4 oder F/6 aufzunehmen.

Gruß

*entfernt*
 
Zuletzt von einem Moderator bearbeitet:
Hallo Heiko
Danke für die recht ausführliche Erklärung!
Das mit der Addition der Farbkanäle ist für mich nicht ganz verständlich ~> wäre dann nicht (98 + 2x40)= 178/3 ca 59% besser? oder verstehe ich da etwas nicht?
 
Zuletzt bearbeitet:
Moin Heiko,

ds sieht doch nicht schlecht aus. Für mich etwas weich, aber das kann auch hier an der Kompression liegen. Das ha mit ner RGB geht haben schon viele gezeigt. Du mußt halt länger drauf halten. Wobei die aktuellen Kameras ja empfindlicher sind als früher. Das hilft schon.

Gruß Markus
 
Hallo Heiko,

nicht schlecht. Vor allem für eine Farbkamera. Für meinen Geschmack sind die Sterne im Vergleich zum Hintergrund zu hart. Aber vielleicht geht das nicht anders. Details.

Die ASI-Kameras haben doch alle Griechenland-Bulgarien (GRBG) als Bayermatrix. Vielleicht solltest Du einfach nur den Rot-Kanal auswählen, also eine Maske mit [[0,1], [0, 0]] anwenden. Dann hast Du auch einen super "schmalband" Filter und die G- und B-Kanäle werden eliminiert.

Aber vermutlich kommt das auch das Selbe hinaus, wenn Du nachher einfach die Farben extrahierst. Ich denke mal, die Interpolation der Farbkänale beim debayern geht nur über diese selbst.

Gruß,
Peter
 
Hallo,

danke für eure Kommentare.

-> Reinhard
~> wäre dann nicht (98 + 2x40)= 178/3 ca 59% besser?
Du kannst das blaue Pixel ja nicht ignorieren, das fast nichts zum Signal beiträgt, ohne Bayermaske aber trotzdem den vollen Durchlass für H-alpha hätte. Das geht in den Durchschnitt ein, wenn man mit einem 2x2 Monoarray vergleicht. Wenn ein Familienmitglied 1000.-Euro auf dem Konto hat, zwei andere je 500.-Euro und ein viertes gar nix, dann ist das durchschnittliche Familienvermögen pro Person (1000 + 2x500 +0)/4 = 500 und steigt nicht, indem man das Familienmitglied ohne Vermögen einfach ignoriert.

-> Markus und Peter
Markus ist es zu weich, Peter sind die Sterne zu hart. Im Schnitt ist es ok? Aber Spaß beiseite. Kann sein, daß ich das Strecken übertrieben habe, deshalb wirken die Sterne hart. Und das "Weiche" am Nebel könnte durch die Lichtverschmutzung vom vollen Mond und noch etwas diesigen Verhältnisse gekommen sein. 12 nm ist vielleicht noch nicht schmalbandig genug für viel Lichtverschmutzung - 7 oder 3 nm wäre besser. Vielleich ist es auch der 0.79x Reducer für das TS72/432? Dem sagt man ja nach, daß er nicht optimal dafür angepasst sei.
Auf jeden Fall würde man bei Verwendung nur des Rotkanals (rotes Pixel mit 98% H-alphaanteil) das Signal auf 2 grünen Pixeln (à 40% H-alphaanteil) verschwenden. Also man verzichtet fast auf die Hälfte der H-alpha Photonen. Nein, es macht schon Sinn alle Kanäle zu addieren.

Gruß

*entfernt*
 
Jetzt wünsche ich mir einen Tribandfilter
Hi-Ko ;)

nimm doch einfach einen UHC-Filter, der läßt 4 Linien auf einmal durch und bedient alle 3 Farben der Bayer-Maske. Kuwasi Quadband-Filter :cool: Blau mit Hß, Blau und Grün in deren Überlappungsbereich mit Oiii, Tiefrot mit Ha und Nochtieferrot mit Sii. So haben alle Pixel was zu tun und sind nicht ganz umsomst auf dem Chip. Im Prinzip müßte sich das sogar in alle 3 Einzelbereiche zerlegen und in wilden Falschfarben darstellen lassen.
Ich stand vor einer ähnlichen Situation wie du und habs einfach mal probiert ;)

Grüße und CS!!
Okke
 
Hallo Okke,

ich habe sogar einen UHC-S-Filter von Baader. Aber das ist nicht das gleiche wie ein richtiger Tribandfilter. Die sind noch mal schmalbandiger. Sonst könnte ich auch gleich einen Luminanz L-Filter nehmen. Der lässt auch alle Linien durch und bedient die 3 Farbkanäle. :)

Gruß

*entfernt*
 
Hallo Heiko,

bei meiner Kamera, der ASI1600MC, sind die Filter steiler, da ist nicht mehr viel im Grünkanal. Weißt Du, wo man die integrale Farbverteling der Kameras herbekommt? Das wäre ja für die Eichung der Farbkanäle nicht schlecht.

Ich habe aber die Idee, die ich oben geäußert habe, aufgegriffen und mir so die RGB-Interpolation aus der Bayermatrix gespart. Das gibt ja ohnehin keinen mehr an Informationsgehalt. Zudem reduzieren sich die Bildgrößen auf 1/4. Was die Verarbeitung schneller macht. Gerade das debayern braucht Zeit. Das kann ich mir so ersparen.

Es gibt übrigens keinen Unterschied zum "Original", außer dass die Bilder in den Seitenlangen halbiert sind.

Gruß,
Peter
 
Zuletzt bearbeitet:
Der "S" vom Baader performt irgendwie anders wie der 0815 von Omegon, warum auch immer. Ich habe versucht, zu verstehen warum und hielt sie beide nebeneinander.... ok, der Omegon war subjektiv etwas heller und pinker, aber eher marginal. Auch durch mein "Qualitatives Hosentaschen-Spektrometer" betrachtet (alter Schott "Veril Interferenz Verlaufsfilter"), hatte ich nichts Auffälliges finden können. Eher, daß der Baader noch die Abschnittkante Richtung IR sieht, beim Omegon nicht, der war "offener" ins Rote, also eigentlich "schlechter". Ich weiß auch nicht, ob man das verallgemeinern kann oder ob es chargenabhängige Einflußgrößen gibt. Klar ist ein echter Triband schmalbandiger und stellt die Linien einzeln frei, der UHC nicht. Aber auch der ändert nix an den 500nm der Oiii-Linie, die nunmal im Überlappungsbereich von Grün und Blau liegt. Er erhöht lediglich die Trennschärfe zwischen Nutzlicht und aufgehelltem Himmel.
Da hängt es dann von den Überlappungseigenschaften/Steilheit der Bayermaske der 294er ab.

@ Peter: hast du's mal bei ZWO angefragt, die waren eigtl bisher recht gut im Produktsupport.

Gruß Okke
 
Zuletzt bearbeitet:
Hallo Heiko
Da kommt schon was raus aber Farbmatrix + filter ist doch immer ein Kamikazenkommando. Also Actung für die Geduld.
 
Hallo,

ich habe mal die relative QE (Quanteneffizienz)-Kurve aus dem ASI294-Manual zur Veranschaulichung kopiert:

ASI294QE.JPG


Ich muß mich hier sogar korrigieren. H-alpha liegt ja bei 656 nm. Ich hatte es irgendwo bei 620 nm gewähnt. Danach sind die relativen Anteile in den einzelnen Farbkanälen eher 88%-18%-5% (R-G-B). Trotzdem denke ich , muß man auf die 2x18%+5% = 41% Beitrag zum H-alpha Signal aus den beiden Grün- und dem Blaupixel der Bayermatrix nicht verzichten.

Gruß

*entfernt*
 
Wenn ici mir die Bayer matrix anschaue rechne ici so, (1*88+2*18+1*5)/4=32. Besser als nix, aber grosser Verlust.

Was mich an diesen Sensor wundert ist die hohe QE. Wie ist das gemessen, was ist da dran. Bis jetzt habe ich nur um 80% bei den besten Sensoren gehört. Aber schon solche Werte gesehen die nach neutralen Tests und vergleichen nur Marketing waren.
Hab ich da was verpasst?
So ein Sensor in monochrom das dürfte wohl kaum ohne Revolution Rauskommen.
Hauptsache ist halt trotzdem dein Bild, egal wie, ein schönes Resultat.
 
Salut Siegfried,

hier wird die relative QE gezeigt. Ich denke, das bedeutet relativ zur Monoversion ohne Bayermatrix.

Gruß

*entfernt*
 
Hallo Heiko,

dann kannst Du ja einfach mal vergelchen, wie sich die Intenesität im Rotkanal gegen die Gesamtintensität aus RGB verhält (z.B. blinken), ob da im Gesamtbild eine wahrnehmbare Sensitivität sichbar wird.

Denn Du mußt bedenken, dass Du durch G und B auch Rauschen dazuaddierst.

@ Siegfried: Auf dem Plot sind nur relative Intesitäten (auf 1 normiert) dargestellt. Das hat nix mit der absoluten Quanteneffektivität zu tun.

Gruß,
Peter
 
Salut Siegfried,

die gezeigten Kurven sind ja relative Angaben, bezogen auf grün, das mit 1 angesetzt wird. Hier ein Link zu einem Kamera-Vergleich von ZWO: ZWO ASI | Cameras Comparison
Leider steht jetzt ausgerechnet bei der 294er "TBD" (to be defined) :rolleyes:

Mich erstaunt, wie weit die Grünkurve ins Blaue hineinreicht, bei 500nm (Oiii) sind sogar noch 90% rel.QE übrig. Selbst Hß ist noch deutlich drin.

Gruß,
Okke

edit: oh, Heiko und Peter waren schneller, zu lange bei ZWO gestöbert...
 
Danke für die Rückmeldungen. So dachte ich mir das , absolute QE mit solchen Werten wäre einfach draumhaft.
Heiko Dein QE liegt also bestimmt unter 32% ich denke nicht mehr als 20%. Deshalb rede ich ja von Kamikazenkommando.
Gibt ja auch Leute die DSLR mit originalfilter benutzen und stund mit HA filtern verbringen, geht auch ist aber trotzdem grosser Unfug.
 
Hallo Siegfried et al.,

es kommt ja drauf an, wie die QE der 294 im Vergleich zu einer Monokamera mit gleicher Technologie ist. Im Netz findet man Angaben von "estimated" 75% QE. Aber egal, es stimmt, mit der Farbversion muß ich ca. drei mal länger belichten um die gleiche Anzahl H-alpha Photonen zu sammeln.
Wenn ich gleichzeitig zum H-alpha auch noch das O-III-Signal mit einem Dualbandfilter durchschieben kann, dann ist - wenigstens zeitlich -der Unterschied zur Aufnahme mit Schmalbandfiltern nicht mehr so groß. Ich kann mich dann auch nur mit einer Farbkamera schon als Schmalspur- (äh. Schmalband-)-Astrofotograf betätigen, ohne mir noch Monokamera, Filter und Filterrad kaufen zu müssen. Auch die Minderbemittelten können dann schon Erfahrungen damit sammeln.
Und zum Rauschen: Wichtig ist das S/R-Verhältnis. Egal wie hoch das Rauschen ist, solange ich ein entsprechend hohes Signal sammeln kann ist das ok. Und das S/R summiert sich wie die Wurzel der Quadrate des S/R der Einzelaufnahmen (stimmt doch oder?). Das heißt in der Summe erhöhe ich das totale S/R egal wie klein ein S/R einer zusätzlichen Einzelaufnahme ist. D.h. selbst die 5% im Blaukanal verbessern mir noch etwas das S/R-Verhältnis.


Gruß

*entfernt*
 
Ich habe das bisher so verstanden wie nachstehend beschrieben und sehe trotz einiger der Beiträge in diesem Thread keinen Anlaß, das zu ändern:

1. Da Diagramm zeigt m.E. was die Bayermatrix vom ankommenden Licht durchläßt. Bei H alpha sind das also ca. 89 % dessen, was hinter dem Schmalbandfilter vorhanden ist. Hat man also je einen Farb- und einen Monochromsensor mit GLEICHER Quanteneffizienz (ohne Berücksichtigung der Bayermatrix), muß man bei H alpha mit dem Farbsensor 1/0,89=1,23 mal so lange belichten um die gleiche Intensität zu erreichen. Hat man einen relativ unempfindlichen Monochrom- und einen relativ empfindlichen Farbsensor kann letzterer - eine Rot-Kurve wie oben gezeigt vorausgesetzt - sogar für kürzere Belichtungszeiten (im aktuellen Fall!) sorgen, aber …

2. Die Auflösung des Farbsensors ist geringer, wenn auch nicht 1/4. Je nach verwendetem Interpolationsalgorithmus geht man im Allgemeinen von einem Faktor 1,3 bis 1,5 (linear), also effektiv etwa 1,7 bis 2,3 aus. Vermutlich wird dadurch, daß im vorliegenden Fall im Blau- und Grünkanal noch ein wenig Signal vorhanden ist, das Resultat beim Verwenden dieser Kanäle sogar schlechter, weil die Intensitäten bezogen auf die gewünschte Wellenlänge falsch sind. Ein Verzichten auf Blau- und Grünkanal ist also wahrscheinlich sinnvoll.

Auf der sicheren Seite ist man auf jeden Fall mit einer Monochromkamera - wenn man nur die Aufnahmeseite betrachtet.
Wie aber sieht es mit dem Abbildungsmaßstab, dem Rauschen, dem Seeing, dem Guiding und nicht zuletzt der Nachbearbeitung aus? Wenn der Standort stimmt, die Technik perfekt aufeinander und auf das Objekt abgestimmt ist und funktioniert und man die Bildbearbeitung im Griff hat, dann ist eine Monochromkamera die erste Wahl.
Lege ich aber mal die hiesigen Bedingungen zugrunde, ist für mich derzeit die ASI294 immer noch die richtige Kamera:

Abbildungsmaßstab: 1,5"/Px tatsächlich, Interpolationsbedingt wohl ca. 2,1"/Px, bei einem reinen Rotsignal wahrscheinlich etwas schlechter, sagen wir 2,3
Guiding (RMS): zwischen 0,4" und 0,8"
Seeing: keine Ahnung, was der beste und der schlechteste Wert hier (Taunus, 400 m) ist, sagen wir mal 2"
Sonstige Fehler: keine Ahnung, besser wird's aber bestimmt nicht.

Die Alternative zur 294 wäre die 1600 (zwei Kameras passen nicht ins Budget). Bei der 1600 läge ich bei gleicher Optik bei etwa 1,3"/Px (gegenüber 2,3), also bei einem über 40 % niedrigeren Wert. Bleibt die Frage, was am Ende davon ankommt (wie gesagt: ich gehe von meiner Situation aus). Wenn alles andere perfekt ist, gibt es ganz sicher einen Unterschied. Aber wann ist mal alles perfekt und vor allem: Wann sieht man sich die Bilder in einer solchen Vergrößerung an, daß man die Unterschiede auf Pixelniveau - darum geht es nämlich - wahrnimmt?
Wenn jemand auf Forschungsniveau arbeiten will, ist die Antwort klar, da gibt es keine Alternative. Für die, die mit noch erträglichen Belichtungszeiten schöne Bilder anfertigen wollen, ebenfalls. Für alle dazwischen lohnt sich nach meiner Meinung durchaus, mal über den Tellerrand zu schauen - das gilt für beide Richtungen.
 
Heiko: Warum sollte man mit der Farbversion dreimal länger belichten müssen? Die Information für die "fehlenden Pixel" wird aus den vorhandenen berechnet (interpoliert). Es kommt doch nur darauf an, was den Sensor erreicht (in diesem Fall 89 %) und wie effizient der Sensor arbeitet. Was fehlt, ist die Auflösung!
 
Hallo Name?,

Vergess nicht, daß außer dem roten Pixel mit 89% noch 2 grüne und ein blaues unter der Bayermaske sind, die bei der Mittelung einbezogen werden müßen. Die sind nicht so effizient und deshalb fehlt die Auflösung und vor allem das S/R ist geringer, wegen der fehlenden Photonen - dem Signal. Um auf ein vergleichbares S/R zu kommen wie mit Mono, müßte man deshalb mindestens drei mal länger belichten - ist leider so.

Gruß

*entfernt*

PS: Aber ja, irgendwo hast Du auch recht. Man kann entweder sagen, man hat ein Bild mit gleichem S/R aber geringerer Auflösung oder gleiche Auflösung und geringerem S/R. Wenn ich beim Monobild jedes 2. Pixel weglasse und interpoliere, bleibt ja auch das S/R aber die Auflösung wird geringer.
 
Übrigens liegt - wie man sieht - der Durchlaßgrad für OIII bei dieser Kamera im Grünkanal bei etwa 87 %; es bietet sich also an, für OIII nur den Grünkanal zu verwenden. Wegen der gegenüber H alpha doppelten tatsächlich belichteten Pixelzahl dürfte nebenbei die Auflösung besser sein.
Bei SII bietet es sich an, mit etwas längeren Belichtungszeiten zu arbeiten, um eine vergleichbare Ausgangsbasis zu haben.

Markus
 
Und zum Rauschen: Wichtig ist das S/R-Verhältnis. Egal wie hoch das Rauschen ist, solange ich ein entsprechend hohes Signal sammeln kann ist das ok. Und das S/R summiert sich wie die Wurzel der Quadrate des S/R der Einzelaufnahmen (stimmt doch oder?). Das heißt in der Summe erhöhe ich das totale S/R egal wie klein ein S/R einer zusätzlichen Einzelaufnahme ist. D.h. selbst die 5% im Blaukanal verbessern mir noch etwas das S/R-Verhältnis.

Wenn Du zwei Farbkanäle (z.b Rot und Grün) aufsummierts, erhöht sich das Rauschen um Wurzel 2, also ca 1.4. Wenn Dein Signal im Roten 1 ist und im Grünen nur 0.1, erhöht sich das Signal in der Summe um 1.1. In der Bilanz hat sich dann das Rauschen erhöht. Wenn das rauschen in beiden Kanälen gleich ist (z.B 0.1) Dann hast Du im Rotkanal alleine ein Signal zu Rauschen von 1/0.1 = 10. In der Summe beider Kanäle aber nur 1.1/0.14 ~= 7.8
 
Zuletzt bearbeitet:
Du hast das nur auf das Signal-Rauschverhältnis bezogen, das habe ich also zunächst falsch verstanden. Aber: wenn Du den Blau- und den Grünkanal nicht benutzt, können die auch kein Rauschen "beisteuern". Andererseits wiegen die Fehler im Roten schwerer … hmmmmm …

Was ich oben noch vergessen habe (Achtung: Vermutung!): Wenn man mit Dithering arbeitet und als "Zielwert" für den Versatz immer eine ungerade Zahl wählt, sollt doch nach und nach an jeder Stelle mal ein belichtetes Pixel landen. Nimmt man dann alle Kanäle, also auch die "falschen", müßten zwar die interpolierten Werte die guten etwas verwässern, letztere müßten aber meines Erachtens dominieren, weil dort eigentlich immer die ausgeprägteren Strukturen liegen, oder?

Ob und ggf. wie es funktionieren würde, auch dann immer nur den Rotkanal zu verwenden, liegt noch außerhalb meines Erfahrungshorizontes. ;-)

Markus
 
Zuletzt bearbeitet:
Eieiei, ich komme ja gar nicht mehr mit hier. Mein Verständnis der Summation ist: Der Rotkanal hat z.B. ein S/R von 1 und im Grünen nur 0.1 - soweit d'accord. Das summierte SR ist Wurzel(1^2 + 0.1^2) = 1.005. Keine große Erhöhung, aber immerhin etwas. Jedenfalls wird es nicht geringer. Bin ich da auf dem Holzweg?

Gruß

*entfernt*

Nochmal PS: Stellt euch viele Bilder (oder Signale) nur mit weißem Rauschen um den Wert Null vor. Da ist Null Signal drin. Was passiert, wenn man die summiert? Ein total verrauschtes Bild? - Nee, irgendwann hat man ein ziemlich gleichfömiges Bild.
 
Zuletzt von einem Moderator bearbeitet:
Du hast das nur auf das Signal-Rauschverhältnis bezogen, das habe ich also zunächst falsch verstanden. Aber: wenn Du den Blau- und den Grünkanal nicht benutzt, können die auch kein Rauschen "beisteuern". Andererseits wiegen die Fehler im Roten schwerer … hmmmmm …

Markus
Das verstehe ich nicht. "Andererseits wiegen die Fehler im Roten schwerer … hmmmmm …"
 
Eieiei, ich komme ja gar nicht mehr mit hier. Mein Verständnis der Summation ist: Der Rotkanal hat z.B. ein S/R von 1 und im Grünen nur 0.1 - soweit d'accord. Das summierte SR ist Wurzel(1^2 + 0.1^2) = 1.005. Keine große Erhöhung, aber immerhin etwas. Jedenfalls wird es nicht geringer. Bin ich da auf dem Holzweg?

Gruß

Heiko
Ich glaube schon: Nehmen wir an, in beiden Kanälen hast Du ein Signal von 1. Dann hast Du in der Summe 2 (1+1). Das Rauschen von 0.1 erhöht sich statistisch um Wurzel(2), also ca 1.4. Damit erhöht sich das Signal zu Rauschen um Wurzel(2), wie es sich gehört.
 
Hallo Peter,

wieso erhöht sich das Rauschen von 0,1 um Wurzel(2). Zeige es mal mit Formeln.

*entfernt*
 
Status
Es sind keine weiteren Antworten möglich.
Oben