Auflösungsvermögen und Sampling | Seite 4 | Astronomie.de - Der Treffpunkt für Astronomie

Auflösungsvermögen und Sampling

Status
Es sind keine weiteren Antworten möglich.

Peter_Kratzek

Mitglied
Hallo,

Zitat von Sternenfee123:
So rein theoretisch wäre das nach meinem Verständnis eigentlich garnicht möglich. Hat doch Ganymed lediglich 1,67 Bogensekunden scheinbaren Durchmesser, der Kernschatten der Sofi hat laut Simulation in Guide 8 grad mal 0,41 Bogensekunden und die theoretische Auflösung meines 6" Mak wird vom Händler mit 0,69 Bogensekunden angegeben. ?)

Bei einer Ankopplung von f=23 hat Ganymed nach 1,5 fach Drizzle 16 Pixel im Durchmesser, der Kernschatten 6 Pixel. Der Schatten ist auf 13 Summenbildern im Abstand von 30 Sekunden eindeutig da. Hier die Animation vom 12. Februar:

Die einzige Erklärung, die für mich irgendwie Sinn macht, liegt im kräftigen Kontrastunterschied zwischen dem "hellen" Ganymed und dem schwarzen Schatten. So wie man im Teleskopen mit viel Öffnung visuell die Enketeilung "sehen" kann, oder auch Stromleitungen in mehreren km Entfernung vor dem hellen Mond, obwol es nach der Theorie zum Auflösungsvermögen nach Nyquist nicht paßt...
Das liegt daran, dass die ~0,77 arcsec (Dawes' Limit beim 555nm) Auflösungsvermögen eines 6 Zoll Teleskopes nur für die Point Spread Funktion (PSF) gelten. Also für die Trennung zweier (gleichhellen und inkohärenten) Punktlichtquellen wie z.B. Sterne. Bei einzelnen dunklen Linien auf hellem Hintergrund gilt die Edge Spread Funktion* (ESF). Hier liegt das Auflösungsvermögen deutlich höher.

Dafür hab ich mal eine Simulation mit dem Programm 'Aberrator' und dessen Funktion 'Planet' gemacht. Das Bild zeigt die Simulation eines 147mm Teleskopes bei 555nm, welches hier im Dawes' Limit der PSF eine Auflösung von ~0,80 arcsec hat. Das Bild hat 20 Pixel/arcsec (entpsricht also einer Kameraankopplung von ~28*p). Das Streifenmuster entpricht genau der Auflösungsgrenze (Dawes' Limit) der PSF/LSF des Telekopes (die Line Spread Funktion (LSF) entspricht laut 'telescope optics' (text von FIG 14)* etwa der PSF). Die beiden Waagerechten einzelnen Linien haben nur eine Breite von 0,1 arcsec und 0,05 arcsec und können trotzdem noch detektiert werden (jedoch nicht mehr aufgelöst). Darunter noch 2 Punkte im Abstand der Auflösungsgrenze (PSF) des Telekopes:

(rechte Maustaste aufs Bild -> Grafik anzeigen für volle Größe)

Link zur Grafik: http://fs1.directupload.net/images/150302/r9rjnfgs.png

*siehe "Figure 14": telescope optics

Gruß Peter
 

Jan_Fremerey

Aktives Mitglied
Zitat von Ries:
hat schon wer einen Binning-Versuch gemacht? Zumindest in Firecapture kann man die AL5 auch im 2x2bin betreiben.
Hallo miteinander,

aufgrund mehrerer Versuche mit Binning habe ich inzwischen Zweifel an der Binning-Funktion, zumindest aber an dem Zusammenspiel meiner Chameleon Cam mit FireCapture bei der Anwendung dieser Funktion.

Nach den ersten Binning-Tests mit meinem exzentrisch auf f/22 abgeblendeten 10"-Spiegel an der zuvor schon als Testobjekt verwendeten Antennenanlage hatte ich zunächst mit Binning, d.h. mit einem effektiven Pixelraster von 7,5µm ein deutlich schlechteres Bildergebnis als mit 3,75 µm. Daraufhin habe ich probeweise das mit 3,75 µm aufgenommene Video mit Hilfe von VirtualDub einem 2x2 Binning unterzogen und habe das verkleinerte Video sodann in derselben Weise aufbereitet wie das direkt mit der Kamera gebinnte. Dabei kam zu meiner Überraschung ein Bildergebnis heraus, welches von dem mit 3,75 µm aufgenommenen kaum noch zu unterscheiden ist.

In der folgenden Animation sind alle drei Ergebnisse egenübergestellt:

Link zur Grafik: http://www.astro-vr.de/150302_CamBin_vs_SoftBin_vs_Original.gif

Wenn wir diesem Verfahren vertrauen, liegen wir anscheinend "experimentell" mit 3*p und 6*p wieder nicht so weit auseinander ! Wie ist Eure Meinung dazu ?

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:

Christian_P

Aktives Mitglied
Hallo Wolfgang
Zitat von Ries:
du arbeitest ja mit ca. P=6 und mit meiner AL zumindest kann man in Firecapure binnen. Da wäre es doch für dich vielleicht auch möglich,den Test wie ich ihn weiter oben beschrieben habe, bei deiner nächsten Jupiter-Session durchzuführen.
bei den letzten beiden Gelegenheiten hatte ich wirklich mal N = 7*P verwendet. Ich habe aber auch schon öfter mal recht knappe Kameraankopplungen genutzt. Ein Extrembeispiel war das Bild von Mars und Saturn bei f/10 und 5.2µm Pixeldurchmesser (N ~ 2*P). Ich habe also schon oft verschiedenes ausprobiert, leider aber noch keinen Direktvergleich.

Da sich nun offenbar herausgestellt hat, dass das Binning problematisch ist, würde ich einen Test Mit-Ohne-Barlow besser finden. Dem Binning habe ich schon weiter oben nicht über den Weg getraut, jedenfalls hatte ich Zweifel an Jan's ersten Ergebnissen. Einen entsprechenden Test werde ich wohl mal machen.





Hallo Gerd
Zitat von Gerd_Duering:
3*P scheint ja fast nur halb so Detailreich wie 6*
also für so eine Aussage fehlen mir ehrlichgesagt auf den Bildern die ganz feinen Details an denen ich sowas festmachen könnte.
Wie kommst du da drauf und woran machst du es genau fest?
Ganz konkret, welches feine Detail auf dem Bild ist denn bei N=6*P sichtbar und bei N = 3*P nicht?
unten am Antennenansatz auf der weißen Fläche sind die Details bei 3*P total verwaschen und bei 6*P scharf. Wenn du das nicht siehst, empfehle ich einen guten Optiker ;-). Sowas kommt so extrem am Planeten/Mond nicht raus. Das ist oben ja so, als hätte man mit geringerer Öffnung aufgenommen. So stellt sich das praktisch nicht dar. Was man eventuell sieht, ist eine etwas bessre Detailzeichnung aber nicht einmal verwaschen und einmal scharf. Naja, aber der Test in dieser Form ist eh hinfällig, weil das Binning wohl Murks ist.





Hallo Jan
Zitat von Jan_Fremerey:
Wenn wir diesem Verfahren vertrauen, liegen wir anscheinend "experimentell" mit 3*p und 6*p wieder nicht so weit auseinander ! Wie ist Eure Meinung dazu ?
Ja, meine Meinung dazu ist eben die, dass der Unterschied nicht so groß sein kann, wie er in deinem ersten Vergleich noch mit Wundertüte rüber kommt. Wenn man schon bei ca. N = 3*P videografiert, kann man das durch eine Verdoppelung nicht mehr extrem steigern. Eventuell wird man geringfügig besser, was bei mäßigem Seeing aber durchaus nicht der Fall sein braucht.




Viele Grüße,
Christian
 

Sternenfee123

Aktives Mitglied
Hallo Wolfgang,

Auf den Punkt gebracht, geht es darum, welcher Wert für P in der Formel N = P x µ der "richtige" ist.

Leider kann man ja die Bilder von verschiedenen Bildautoren mit unterschiedlichen Equipment und Standortbedingungen nicht wirklich objektiv vergleichen.

das ist richtig. Man müßte am selben Standort mit 2 Teleskopen der selben Bauart, der selben Öffnung und 2x der selben Kamera testen. Außerdem müßte auch noch Aufnahmeprogramm und Rechnerkonfiguration (Motherboard, Graphikkarte, Festplatte, RAM, Betriebssystem) identisch sein. Je nach Rechner ergeben sich nämlich in der Praxis unterschiedliche fps.

Zuerst mit beiden Aufbauten einen Sterntest machen, um die Justage der Teleskope zu dokumentieren, dann jeweils zur selben Zeit die Aufnahmen starten/beenden.

Und dann noch die Videos gleich behandeln...

Ich denke, das bekommen wir nicht hin. :(

Deine Erfahrungen gehen in die Richtung, dass du mit P ~ 6 besser fährst. Aber 100% sicher kann man da nie sein, da das Seeing in den verschiedenen Nächten unterschiedlich war und ob der Fokus jeweils wirklich 100% getroffen wurde. Ich glaub dir das natürlich, aber "beweisen" kannst du es nicht.

daß ich in beiden Fällen den Fokus "richtig" getroffen habe, denke ich schon. Ich verlasse mich nicht auf die Innenfokussierung mit Spiegelshifting, ich hab nen ordentlichen OAZ dran, mit 1:10 Übersetzung, der durch einen Motorfokussierer angetrieben wird. Das Übersetzungsverhältnis vom Fokussierer hab ich jetzt nicht im Kopf, draußen windet es und Regen peitscht auf den Balkon. Da nehme ich die Regenabdeckung nicht ab und zähl die Zähne auf dem Ritzel...

Die Geschwindigkeit vom Fokussierer ist so eingestellt, daß ich das leise "tsch" höre, mit der das Ritzel um 1 Zahn weiterbewegt wird. Und ich sehe im Livebild, wie sich der Anblick dabei ändert. Ich hab bei gutem Seeing eine Fokustoleranz von 3 Ritzelschritten, ehe das Bild wieder schlechter (= unschärfer/flauer) wird. Ist das Seeing nur durchschnittlich, sind es 6 oder 7 Schritte. Ist das Seeing mau, sind es 20 Schritte oder mehr ohne sichtbare Veränderung am Livebild. Dann macht eine Aufnahme keinen Sinn, weil nix gscheites mehr dabei rauskommt...

Zum Fokussieren nehem ich mir immer genügend Zeit...

Daher mein Vorschlag, in der Formel N = P x µ die Pixelgröße durch das Binning zu verändern und da man ja weiter mit der gleichen Brennweite arbeitet, wir der Wert für P halbiert.

Ich hab grad nachgesehen, FC bietet mir für die angeschlossene ALCCD5L-IIc kein Binning an, dieser Knopf ist grau. :(

Ich müßte also zwischen den Aufnahmen einen größeren Umbau vornehmen. Barlow raus, OAZ um mehrere cm reinfahren, Kamera rein, neu orientieren, neu fokussieren. Das kostet Zeit. So ca. 10 Minuten. In der Zeit kann sich das Seeing schon deutlich ändern. :(

Jan hat noch den Versuch angeregt, seine Optik abzublenden, um damit auf diese Weise unterschiedlcihe P zu erhalten.

Das mag bei großen Öffnungen eine Option sein. Aber von 6 auf 3" abblenden? Das ist reichlich sinnfrei für hochaufgelöste Planetenaufnahmen. :D

Außerdem würde das ebenfalls bedeuten, daß ich ca. 10 Minuten Zeitversatz hab, weil ich dabei erstmal das Teleskop von Jupiter wegschwenken müßte, um die Taukappe wegzunehmen, die Blende aufzulegen, die Taukappe wieder drauf zu fummeln und dann erneut Jupiter anzufahren mit all den Verrenkungen, die ich dabei auf dem Balkon machen muß. Ich kann nicht ums Teleskop rumlaufen...

Ich hab mittlerweile per email von nem befreundeten Astrokollegen mit C11 und einem 16" Newton einen anderen Betrachtungsansatz bekommen. Er schreibt mir, daß es für ihn mit seiner s/w Kamera völlig wurscht ist, ob er am C11 oder am 16"er mit unterschiedlichen Ankopplungswerten arbeitet. Er braucht für vergleichbar gute Bilder einfach eine Mindestgröße von Jupiter (Abbildungsmaßstab auf dem Chip) von ca. 350 Pixeln am Äquator. So greifen seine Bildbearbeitungsroutinen am besten.

Das deckt sich mit meinen Erfahrungen, daß auch ich bei einer Mindestgröße von 310 oder 320 Pixeln die besten Ergebnisse erziele.

Ich denke, bei der Vielfalt an Instrumenten, Kameras und Rechnerhardware können wir das Thema nicht wirklich erschöpfend mit einem exakten rechnerischen Modell (graue Theorie/Mathematik) erfassen und müssen uns mit empirischen Näherungen zufrieden geben. Aufnahmen mit Fotoobjektiven an irdischen Motiven sind nicht so aussagekräftig, weil da zu viele Faktoren (insbesondere die CA der Fotoobjektive sowie generell das problematische Justieren derselben) bei Farbkameras das Ergebnis massiv beeinflussen/verfälschen...

Je mehr Planetenfotografen dies Tests durchführen, umso ausagekräftiger wird das ganze, besonders wenns noch Zusatzinfos wie Seeing, Transparenz, usw. gibt.

Dazu muß man nur die Bilder einer ganzen Opositionsperiode bei ALPO Japan entsprechend "filtern". Schaut man bei den "hochaufgelösten Bildern" mit "großen Pötten" (Olivetti, Go, Camarena, Philips, Sussenbach, Lemaire, Lewis, Wesley, Pellier, Hansen, Macdonald, Delcroix, ...) bzw. in meiner "Größenklasse" (Jacquesson, Carrozzi...] auf die Metadaten (Öffnung, Ankopplungsfaktor, Kamera) kristallisiert sich schon ein Ergebnis raus. Nämlich hin zu f=20 und mehr bei Farbkameras sowie f=16 und mehr bei s/w mit Farbfiltern.

Ich bin dieses Jahr mangels Zeit leider noch nicht dazu gekommen, meine Bilder einzuschicken. Werde es aber hoffentlich demnächst nachholen können...

 

Gerd_Duering

Aktives Mitglied
Hallo Fee,

bist du sicher das dein Mack nur 6“ hat ;-)
Nein Scherz bei Seite.
Ignorieren wir mal das Auflösungslimit auf Basis der PSF für 6“ Öffnung und nehmen mal an das dein Teleskop den Schatten zeigen kann.
Es sieht ja offensichtlich so aus.
Du hattest mit F25 und damit bei 152mm Öffnung also mit 3800mm Brennweiten gearbeitet.
Der Schatten hatte 0,41“ Durchmesser.
Bei 3800mm Brennweite ist dieser Schatten dann tan 0,41“ * 3800mm = 0,000001987*3800mm = 0,0075mm bzw. 7,5 µm auf dem Chip groß.
Du hast mit 3,75µm Pixeln gearbeitet.
Damit war der Schatten exakt 7,5/3,75 = 2 mal so groß wie deine Pixel.
Wenn Du das beste Ergebnis bei dieser Brennweite hattest bedeutet das das 2Pixel / Linie absolut ausreichend sind nicht 3Pixel/Linie wie andere behaupten.

@Christian

unten am Antennenansatz auf der weißen Fläche sind die Details bei 3*P total verwaschen und bei 6*P scharf. Wenn du das nicht siehst, empfehle ich einen guten Optiker ;-).

Ja klart sehe ich das und darum schrieb ich ja auch.

Zitat von Gerd_Duering:
Ich sehe hier in erster Line Unterschiede bei Kontrast und Schärfe, weniger in den sichtbaren Details.
Die Unterschiede bei Kontrast und Schärfe dürften auch der Nachvergrößerung geschuldet sein.

Die von dir angesprochenen Details mit schwachem Objektkontrast leiden natürlich besonders unter dem Verlust an Bildkontrast der sich bei N=3P zeigt.
Nur sind diese Details bedeutend größer als die Grenzfrequenz des Chips, selbst wenn mit Binning gearbeitet wird liegen wir hier doch noch eher in der Gegend von 4Pixeln Größe und ohne Binning dann dementsprechend bei 8Pixeln Größe.
Selbst die hartgesottenen hier meinen aber das 3Pixel / Linie ausreichend sind, ich halte 2Pixel/ Linie für ausreichend und das zeigt ja auch sehr schön das Bild von Fee mit dem Mondschatten der ja bei der von ihr verwendeten Brennweite exakt 2 Pixel groß war und doch recht deutlich zu erkennen ist.

Ich sehe die Ursache für den von dir erwähnten Kontrastverlust bei diesen recht großen Details (4 Pixel und größer) daher eher in der Bildbearbeitung sprich konkret im verwendeten Algorithmus zur Nachvergrößerung.
Das hattte ich in meiner Beurteilung bereits mit berücksichtigt.

Grüße Gerd
 
Zuletzt von einem Moderator bearbeitet:

blueplanet

Aktives Mitglied
Hallo,

@Gerd:
Zitat von Gerd_Duering:
Damit war der Schatten exakt 7,5/3,75 = 2 mal so groß wie deine Pixel.
Wenn Du das beste Ergebnis bei dieser Brennweite hattest bedeutet das das 2Pixel / Linie absolut ausreichend sind nicht 3Pixel/Linie wie andere behaupten.
und
Zitat von Gerd_Duering:
Selbst die hartgesottenen hier meinen aber das 3Pixel / Linie ausreichend sind, ich halte 2Pixel/ Linie für ausreichend und das zeigt ja auch sehr schön das Bild von Fee mit dem Mondschatten der ja bei der von ihr verwendeten Brennweite exakt 2 Pixel groß war und doch recht deutlich zu erkennen ist.

Nur zum Nachdenken: hier wurde gedrizzlet! Die Diskussion in Zusammenhang mit Jans Bilder (ich hab' da explizit auf den Einfluß des Drizzelns hingewiesen) und Autostackert ist Dir wohl entgangen?. Wie ändert das wohl die Dinge hier?


@All:
Leider hab' ich keinen neuen Vergleich der Ankoppelungen. Deswegen hab' ich nocheinmal versucht, aus den Daten von 2009 mit einer feineren Bearbeitung alle möglichen Details herauszuarbeiten. Rauschen und Farben hab' ich nicht weiter optimiert.
Sicher dürfte man das mit aktuellerem Equipment und optimalen seeing besser hinkriegen, aber es zeigt doch deutlich die Tendenz: bei einer größeren Ankoppelung (hier mit f/40 sogar über dem optimalen Wert) waren hier mehr Details herauszuarbeiten.

Falls ich irgendwann Zeir hab', probier' ich das f/20-Material mal mit Drizzlen beim stacking aufzuarbeiten, um zu sehen, wieviel Details man damit evtl. wiedergewinnen kann.

Daten zu den Aufnahmen:
Optik: 150mm-f/20-Kutter mit und ohne 2x Powermate
Cam: sw-mod-ToUCam (5,6um-Pixel) mit Interferenz-RGB-Filter
Es wurden im Wechsel mehrere Aufnahmeserien bei f/20 und f/40 erstellt (mit und ohne Barlow) und die besten davon aufgearbeitet.
Ankoppelungen:
f/40 = 7,1x Pixelbreite (ca. 4 Pixel/cycle bzgl. 550nm)
f/20 = 3,6x Pixelbreite (ca. 2 Pixel/cycle bzgl. 550nm)

In der obere Reihe ist das f/40-Bild (links) Origröße und das f/20-Bild 2x sinc-hochskaliert.
In der unteren Reihe ist das f/20-Bild (rechts) Ori-Größe und das f/40-Bild in der Auflösung halbiert.

Ciao Werner
 

Anhänge

  • jup-14-17-neubearb-gau-iter-RGB-f40-color--collage.jpg
    jup-14-17-neubearb-gau-iter-RGB-f40-color--collage.jpg
    90,9 KB · Aufrufe: 2.201

Jan_Fremerey

Aktives Mitglied
Zitat von Jan_Fremerey:
Wenn wir diesem Verfahren vertrauen, liegen wir anscheinend "experimentell" mit 3*p und 6*p wieder nicht so weit auseinander
In dem oben beschriebenen Versuch basiert das per Software-Binning gewonnene Video auf derselben Belichtungszeit wie das Originalvideo. Noch nicht berücksichtigt ist demnach die Möglichkeit, bei 3*p 4x kürzer belichten zu können als bei 6*p und somit in einer vorgegebenen Zeit 4x so viele Videoframes auf die Festplatte zu bekommen. Diese Maßnahmen erscheinen ja in der Praxis durchaus von Interesse im Hinblick auf die Einschränkung der Auswirkungen des Seeings sowie zur Reduzierung des Bildrauschens.

Gruß, Jan
 

Jan_Fremerey

Aktives Mitglied
Hallo Werner,

Deine Jupiterbilder beweisen gar nichts, weil sie nicht gleichzeitig aufgenommen wurden. Unterschiede im Seeing und bei der Fokussierung können nicht ausgeschlossen werden. Insofern erscheint mir die Gegenüberstellung zweier gleichzeitig gewonnener Aufnahmen mit und ohne Binning - siehe oben - in der Tat "unverdächtiger".

Gruß, Jan
 

Ries

Aktives Mitglied
Hallo,

anscheinend gibt es Unterschiede zwischen Sensorbinning und Softwarebinning.

Binning-Wikipedia

Auf Nachfrage wurde mir bestätigt, das FC bei den TIS und im Webcammodus Softwarebinning verwendet und die anderen Kameras die treiberbedingte Binningmethode angewendet. Die müsste man vom Kamerahersteller erfragen.

Wie stark und warum es Unteschiede in den Binningmethoden gibt, kann ich nicht sagen. Im Link oben gibts ein Beispielbild von einer Meise auf der rechten Seite.
Auch was VT da mit den Videos macht kann ich nicht sagen. Zumindest beim Sensorbinning sollte ein größeres Pixel einigermaßen Naturgetreu simuliert werden, sprich weniger Auflösung, dafür empfindlicher und weniger Ausleserauschen.

Jedenfalls wäre es ja kein Aufwand die Binningversuche auch mal am Nachthimmel durchzuführen;-).

Viele Grüße
Wolfgang
 

Jan_Fremerey

Aktives Mitglied
Zitat von Ries:
anscheinend gibt es Unterschiede zwischen Sensorbinning und Softwarebinning.
Hallo Wolfgang,

wenn Du Dich auf die bei Wikipedia gezeigten Meisenfotos beziehst, dann nehme ich im Hinblick auf den Haupt-Text an, dass dort auschließlich von Software-Binning in Echtzeit während der Aufnahme die Rede ist. Da mag es je nach Algorithmus durchaus erhebliche Unterschiede in der Ausgabequalität geben.

Die von mir mit Hilfe der Binning-Funktion von VirtualDub ohne Zeitdruck (!) erzeugte Videodatei, siehe oben, erscheint mir dagegen klar und unverdächtig und sie basiert jedenfalls auf exakt zeitgleich mit dem Originalvideo erfassten Daten.

Versuche am Nachthimmel bringen m.E. nur dann eine hilfreiche Information, wenn das Seeing gewisse Mindestanforderungen erfüllt. Die hat man aber insbesondere mit größeren Optiken nur recht selten.

Gruß, Jan
 

Peter_Kratzek

Mitglied
Hallo Jan,

Zitat von Jan_Fremerey:
Nach den ersten Binning-Tests mit meinem exzentrisch auf f/22 abgeblendeten 10"-Spiegel an der zuvor schon als Testobjekt verwendeten Antennenanlage hatte ich zunächst mit Binning, d.h. mit einem effektiven Pixelraster von 7,5µm ein deutlich schlechteres Bildergebnis als mit 3,75 µm. Daraufhin habe ich probeweise das mit 3,75 µm aufgenommene Video mit Hilfe von VirtualDub einem 2x2 Binning unterzogen und habe das verkleinerte Video sodann in derselben Weise aufbereitet wie das direkt mit der Kamera gebinnte. Dabei kam zu meiner Überraschung ein Bildergebnis heraus, welches von dem mit 3,75 µm aufgenommenen kaum noch zu unterscheiden ist.
Hast Du hier bei dem Test mit dem 10"-Spiegel auch wieder einen Rotfilter (~650nm) genutzt?

Gruß Peter
 

Christian_P

Aktives Mitglied
Hallo Gerd
Zitat von Gerd_Duering:
Ich sehe die Ursache für den von dir erwähnten Kontrastverlust bei diesen recht großen Details (4 Pixel und größer) daher eher in der Bildbearbeitung sprich konkret im verwendeten Algorithmus zur Nachvergrößerung.
Das hattte ich in meiner Beurteilung bereits mit berücksichtigt.
Deine Einschätzung liegt hier wiedermal daneben. Bei einer nachträglichen Bildvergrößerung können keine wesentlichen Informationsverluste entstehen, solange man mindestens bilineare Interpolation verwendet. Das konnte ich an zahlreichen Jupiterbildern praktisch bestätigen. So krasse Unterschiede wie bei Jan's erstem Vergleich kommen durch Interpolationsverluste (vergrößernd!) bei diesen unterschiedlichen N-Werten nicht zustande. Die Ursachen liegen woanders -> eventuell Binningproblematik. Es ist etwas anderes, wenn man Bilder verkleinert. Siehe dazu deinen Disput mit Werner (blueplanet).


Beste Grüße,
Christian
 

Christian_P

Aktives Mitglied
Hallo Jan
Zitat von Jan_Fremerey:
Deine Jupiterbilder beweisen gar nichts, weil sie nicht gleichzeitig aufgenommen wurden. Unterschiede im Seeing und bei der Fokussierung können nicht ausgeschlossen werden. Insofern erscheint mir die Gegenüberstellung zweier gleichzeitig gewonnener Aufnahmen mit und ohne Binning - siehe oben - in der Tat "unverdächtiger".
Vorsicht! Zwei kurz nacheinander aufgenommene Jupitervideos bei stabilem Seeing mit gleicher Optik und nahezu gleicher Bildbearbeitung stellen den stärksten Test dar, den wir momentan durchführen können! Kein anderer "Labortest" kommt dem so nahe. Beim Binning-Test muss genauso der Modus gewechselt werden, was einem Wechsel von/zur Barlow nahezu gleichkommt. Da das Binning offenbar nicht so ohne Weiteres vertrauenswürdig ist, stellt Werners Test somit ein extrem starkes Argument dar. Ich sehe auch, dass hier noch Reserven durch Drizzling da sind.


Zitat von Jan_Fremerey:
Versuche am Nachthimmel bringen m.E. nur dann eine hilfreiche Information, wenn das Seeing gewisse Mindestanforderungen erfüllt. Die hat man aber insbesondere mit größeren Optiken nur recht selten.
Dann dürfte es unter der Annahme keinen Vorteils für "übermäßige" Brennweitennutzung jedenfalls nur selten passieren, dass eine f/20-Aufnahme etwas schlechter ist als eine mit f/40, denn Seeing wird immer zugunsten der kurzbrennweitigeren Kameraankopplung wirken, also eher für einen "Gleichstand" sorgen.




Viele Grüße,
Christian
 

Jan_Fremerey

Aktives Mitglied
Zitat von Peter_Kratzek:
Hast Du hier bei dem Test mit dem 10"-Spiegel auch wieder einen Rotfilter (~650nm) genutzt?
Hallo Peter,

das ist richtig, habe allerdings unmittelbar danach auch noch mit Blaufilter aufgenommen. Hier ist der animierte Vergleich zwischen den Ergebnissen aus dem mit 3,75 µm bei f/22 aufgenommenen Originalvideo und dem nachträglich durch Binning verkleinerten Video, welches einem Kameraraster von 7,5 µm entspricht:

Link zur Grafik: http://www.astro-vr.de/150303_5in_f22_SoftBin_vs_Original_blau.gif

Aufgrund des Verhältnisses der von den Filtern Rot und Blau durchgelassenen mittleren Wellenlängen und der dementsprechend zu erwartenden höheren Bildauflösung im Blauen hätte ich den Blauvergleich gerne um den Faktor 1,5 größer dargestellt als den weiter oben gezeigten Rotvergleich. Da bekam ich aber leider schon Probleme mit Artefakten, und zwar auch bei der Verarbeitung des Originalvideos. Aus diesem Grunde habe ich hier den Abbildungsmaßstab nur um 20% höher eingestellt als beim Rotvergleich.

Gruß, Jan
 

Jan_Fremerey

Aktives Mitglied
Zitat von Christian_P:
Zwei kurz nacheinander aufgenommene Jupitervideos bei stabilem Seeing
Hallo Christian,

die beiden Aufnahmen liegen eine halbe Stunde auseinander. Ich habe es oft genug erlebt, dass das Seeing innerhalb von 10 min massiv abstürzt.

Zitat von Christian_P:
Kein anderer "Labortest" kommt dem so nahe.
Da magst Du gewiss Recht haben, denn im Labor kommen Seeing-Abstürze eher selten vor.

Zitat von Christian_P:
Da das Binning offenbar nicht so ohne Weiteres vertrauenswürdig ist
Das würde ich nur über das Binning unmittelbar während der Aufnahme behaupten. Das nachträgliche Binning eines mit langer Brennweite aufgenommenen Videos in der Art, wie ich es oben gezeigt habe, erscheint mir weitgehend unverdächtig. Insbesondere basiert das durch nachträgliches Binning erzeugte Video auf Bilddaten, die garantiert ohne Zeitversatz zu den Daten des Originalvideos aufgenommen wurden.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:

blueplanet

Aktives Mitglied
Hallo Jan,

Zitat von Jan_Fremerey:
Deine Jupiterbilder beweisen gar nichts, weil sie nicht gleichzeitig aufgenommen wurden. Unterschiede im Seeing und bei der Fokussierung können nicht ausgeschlossen werden.

Deine Argumente haben für diesen Vergleich keine Bedeutung.
Seeing und Defokusierung als den Test entscheidend beeinflussende Faktoren kann ich ziemlich sicher ausschließen. Dafür hab' ich die Statistik bemüht:

Ich hab' an dem Abend 18 (!) Sätze an RGB-Aufnahmen im stetigen Wechsel zwischen f/40 und f/20 aufgenommen. Ich hab' alle Sets bearbeitet und verglichen. Die Unterschiede zwischen den einzelnen Sets (sowohl in f/40 als auch f/20 und über die Farbkanäle) waren nicht groß. Aus den Serien wurden sowieso nur die beiden "besten" Bilder hier präsentiert. Das seeing spielte also für die Vergleicbarkeit in diesem Fall keine Rolle.

Das Fokusieren an einem f/20-Kutter ist im Gegensatz zu einem beispielsweise f/5-Newton ein Kinderspiel und bei sorgfältiger Ausführung unkritisch.

Dagegen war eine Tendenz eindeutig erkennbar: in den f/20-Bildern konnten nie so viele Details sichtbar gemacht werden, wie in den f/40-Aufnahmen!
Die beiden aus den f/40- und f/20-Serien ausgewählten Bilder zeigen eben genau das.

Zitat von Jan_Fremerey:
Insofern erscheint mir die Gegenüberstellung zweier gleichzeitig gewonnener Aufnahmen mit und ohne Binning - siehe oben - in der Tat "unverdächtiger".

Gleichzeitig geht sowieso nicht!
Denn das von Dir verwendete Software-Binning greift auf die bei der höheren Ankopplung gewonnenen Information interpolierend zurück! Deswegen der geringe Unterschied zwischen den Bildern: höhere Ankopplung vs. Software-gebinned.
Du musst schon von Material ausgehen, in dem diese Informationen NICHT vorhanden sind (also ECHTES Binning)!

Falls überhaupt, dann muss man AUF ALLE FÄLLE das Binning in der Cam verwenden!

Ciao Werner
 

Jan_Fremerey

Aktives Mitglied
Zitat von blueplanet:
Denn das von Dir verwendete Software-Binning greift auf die bei der höheren Ankopplung gewonnenen Information interpolierend zurück!
Hallo Werner,

"interpolierend" - wie soll denn das gehen ?! Wenn ich die Beschreibung der Filter-Funktion "2:1 reduction" bei VirtualDub richtig verstehe, dann werden da jeweils 2x2 Pixel additiv zusammengefasst. Es bleibt eine Matrix mit einer um den Faktor 4 reduzierten Pixelzahl.

Zitat: "This filter is equivalent to applying a 2x2 box filter (average 4 pixels) and then doing a point-sampled resize by half."

Da werden doch offensichtlich 3/4 der im Originalvideo steckenden Detailinformationen unwiederbringlich verworfen. Das mit Hilfe von VirtualDub aus dem Originalvideo mit 1280 x 960 Pixeln erzeugte Video hat in der Tat nur ein Format von 640 x 480. Das ist für mich genau das Gegenteil von Interpolieren, wobei man doch eine größere Matrix mit zusätzlichen interpolierten Zwischenwerten erzeugt, wie etwa bei Vergrößerungen des Abbildungsmaßstabs mit Hilfe des dSinc-Algorithmus.

Edit: Mit meinem weiter oben demonstrierten Vergleichstest wollte ich eigentlich nur zeigen, dass die von der Aufnahme-Software bereitgestellte Binning-Funktion anscheinend mit der von mir verwendeten Kamera nicht erwartungsgemäß funktioniert, und dass dies vermutlich der Grund für die im Binning-Modus zu verzeichnende Einbuße an Bildqualität ist.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:

Ries

Aktives Mitglied
Hallo Jan,

wieviele MB hat den dein gefiltertes AVI im vergleich zum Original-AVI?

Ich hab den 2:1 reduction -Filter in VD auf ein Avi von mir angewendet. Das Original hatte 1200 MB, dass gefilterte dann 900 MB. Wenn das neue AVI nur ein Viertel der Pixel hat, müsste das ja nur um die 400 MB haben.

Wenn man das 2:1 reduction gefiltete AVI noch mal fitert und abspeichert kommt tatsächlich ein 225 MB-AVI raus. Also das was man erwarten würde.....

Dann hab ich das ganze mit einem Jupiter-AVI wiederholt.
270 MB im Orignial
202 MB nach der ersten 2:1 Reduktion
50 MB nach der zweiten 2:1 Reduktion

Schau doch bitte, ob das bei dir auch so ist.

Wenn es so ist, was sind dann die 200% überflüssiger Daten nach der ersten Filterung wenn tatsächlich nur 4 Pixel auf eines Reduziert wurde, wie es beim Binning der Fall wäre?

Viele Grüße
Wolfgang

 

Jan_Fremerey

Aktives Mitglied
Zitat von Ries:
Das Original hatte 1200 MB, dass gefilterte dann 900 MB.
Hallo Wolfgang,

das ist bei mir auch so, wenn ich nicht gleichzeitig die Farbtiefe auf "Gray Scale" setze. Dann gibt nämlich VirtualDub das reduzierte Video im RGB-Format aus, also in Deinem Fall mit einem Datenumfang von 3x 300 MB. Das Format, d.h. der Pixelumfang ist aber tatsächlich nur 1/4 vom Originalvideo, bei mir sind das nach der 2:1 Reduktion 640 x 480 Pixel gegenüber ursprünglich 1280 x 960.

Wenn man aber bei VirtualDub unter "Color Depth" "Grayscale (0-255)" auswählt, dann kommt das Ausgabevideo tatsächlich auch mit einem Datenumfang von 1/4 des Originalvideos heraus.

Gruß, Jan
 

Ries

Aktives Mitglied
Hallo Jan,

Danke für die Info! Mit Hilfe des Forums lernt man immer was dazu;-).

Du wirst ja auch noch irgendwelche Jupiter-Videos auf der Festplatte rumliegen haben. Wie ist den da dein Eindruck, wenn du die in VD Softwarebinning machst und dann stackst?

Ich habe fast alle meine AVIs gelöscht und SER nimmt ja VD nicht, oder?

Jedenfalls wenn ich mein altes, schlechtes Jupter-AVI ungefiltert und gefiltert in Autostackert stackse, erscheint, das gefilterte(gebinnte) Ergebnis knackiger, auch wenn man es auf die Größe des ungebinnten Bildes bringt. Eventuell bringt also bei schlechtem bis mäßigem Seeing größere Pixel mehr Details zum Vorschein. Mit kleineren Pixeln werden die Details schon so "weichgezeichnet", dass Autostackert gar nicht mehr ordentlcih damit arbeiten kann.....

Wäre interessant wenn du AVIs bei unterschiedlichem Seeing hättest und die dann gefiltert und ungefiltert (binning) stackst, ob da ähnliches rauskommt, wie bei mir.

Viele Grüße
Wolfgang
 

blueplanet

Aktives Mitglied
Hallo Jan,

Zitat von Jan_Fremerey:
"interpolierend" - wie soll denn das gehen ?! Wenn ich die Beschreibung der Filter-Funktion "2:1 reduction" bei VirtualDub richtig verstehe, dann werden da jeweils 2x2 Pixel additiv zusammengefasst. Es bleibt eine Matrix mit einer um den Faktor 4 reduzierten Pixelzahl.

ich meinte schon interpolierend. Auch beim downscaling wird Interpolation eingesetzt um z.T. Artefakte des Skalierens zu unterdrücken. Jede Art von Software-Skalierung bei der man den dahinter stehenden Algorithmus nicht genau kennt, ist in dieser Beziehung fragwürdig.

Ciao Werner
 

Jan_Fremerey

Aktives Mitglied
Zitat von blueplanet:
Auch beim downscaling wird Interpolation eingesetzt um z.T. Artefakte des Skalierens zu unterdrücken.
Hallo Werner,

das kann aber nur für nicht-ganzzahlige Verkleinerungen gelten, insbesondere eben zur Vermeidung von Artefakten. Unter "Binning" versteht man dagegen eine simple additive Zusammenfassung von 2x2 oder auch mehr bereits vorhandenen Pixeln aus einer Originalvorlage oder eben auch unmittelbar aus einem Kamera-Chip. Dieser Vorgang bedarf keiner Interpolation und birgt auch keine Gefahr der Ausbildung von Artefakten. Das ist doch gerade der wesentliche Vorteil des Binnings gegenüber einem "downscaling" im üblichen Sinne.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:

Kurt

Aktives Mitglied
Hallo Jan,

....Unter "Binning" versteht man dagegen eine simple additive Zusammenfassung von 2x2 oder auch mehr bereits vorhandenen Pixeln aus einer Originalvorlage oder eben auch unmittelbar aus einem Kamera-Chip...

so hab ich das auch verstanden. Hier in der Diskussien wird Binning in Verbibdung mit Planetenfotos gebtacht. Oder hab ich das falsch verstanden? Wer macht das denn tatsächlich in der Praxis Planetenfotografie und falls ja warum ?)

Gruß Kurt



 

Jan_Fremerey

Aktives Mitglied
Zitat von Kurt:
Binning ... Wer macht das denn tatsächlich in der Praxis Planetenfotografie
Hallo Kurt,

wir benutzen das Binning hier nur, um herauszufinden, ob man zur fotografischen Ausreizung des Auflösungsvermögens einer f/20 Optik mit einem Pixelraster von 7,5 µm auskommt oder ob man eher ein um den Faktor 2 feineres Raster benötigt, also 3,75 µm. Bei einigen Videokameras kann man das Pixelraster durch Aktivierung eines 2x2 Binning-Modus von 3,75 µm auf 7,5 µm umschalten und die mit beiden Einstellungen gewonnenen Abbildungen eines bestimmten Objekts miteinander vergleichen, um die oben genannte Frage auf unkomplizierte Weise zu klären.

Gruß, Jan
 

blueplanet

Aktives Mitglied
Hallo Jan,
Zitat von Jan_Fremerey:
das kann aber nur für nicht-ganzzahlige Verkleinerungen gelten, insbesondere eben zur Vermeidung von Artefakten.

nein, nicht nur. Nur kommt man bei Verkleinerungen, die nicht in den ursprünglichen Pixelgrenzen landen nicht um eine Interpolation herum.

Zitat von Jan_Fremerey:
Unter "Binning" versteht man dagegen eine simple additive Zusammenfassung von 2x2 oder auch mehr bereits vorhandenen Pixeln aus einer Originalvorlage oder eben auch unmittelbar aus einem Kamera-Chip.

Der Punkt ist, dass das binning unbedingt "on chip in hardware" erfolgen sollte! Hierbei werden die Pixel dann entsprechend zusammengefasst(z.B. 2x2).
Bei einem Software-binning ist dagegen nie auszuschließen (wenn man keinen Einblick in den verwendeten Algorithmus hat), dass die Daten auch bei einer ganzzahligen Verkleinerung (interpolierend) modifiziert werden.
Hintergrund sind auch wieder alias-Artefakte ...
Evtl. wird deswegen z.T. auch ein "blurring-Schritt" vorangestellt, der eben Artefakte durch die Verkleinerung unterdrücken soll.

Zitat von Jan_Fremerey:
Dieser Vorgang bedarf keiner Interpolation und birgt auch keine Gefahr der Ausbildung von Artefakten. Das ist doch gerade der wesentliche Vorteil des Binnings gegenüber einem "downscaling" im üblichen Sinne.

Wie gesagt: bei einem echten binning: ja; bei einem software-binning ohne Kenntnis des Algorithmus: eher nein.

Ciao Werner
 

Jan_Fremerey

Aktives Mitglied
Zitat von blueplanet:
Der Punkt ist, dass das binning unbedingt "on chip in hardware" erfolgen sollte!
Hallo Werner,

offenbar hättest Du es zumindest gerne so im Zusammenhang mit unserer Diskussion und versuchst es deshalb hier als Norm vorzugeben. Es mag ja sein, dass der Begriff "Binning" im engeren Sinn auf das Auslesen von Kamerachips beschränkt ist. Die additive Zusammenfassung von 2x2 Pixelblöcken kann aber selbstverständlich auch nachträglich aus dem voll aufgelösten Video heraus per Software realisiert werden.

Zitat von blueplanet:
Bei einem Software-binning ist dagegen nie auszuschließen (wenn man keinen Einblick in den verwendeten Algorithmus hat), dass die Daten auch bei einer ganzzahligen Verkleinerung (interpolierend) modifiziert werden.
Bei VirtualDub gibt es neben der oben beschriebenen einfachen "2:1 reduction", die ausdrücklich auf den Bereich von 2x2 Pixeln beschränkt ist, eine sog. "2:1 reduction (high quality)", bei der weitere benachbarte Pixel einbezogen werden.

Zitat: "Shrink video to half-size using an overlapping 3x3 kernel. This filter is equivalent to applying a radius-1 Gaussian blur and then doing a point-sampled resize by half."

Offenbar geht das in die von Dir vermutete Richtung. Wenn VirtualDub diese Art der Verkleinerung gegenüber der einfachen Zusammenfassung von 2x2 Pixelblöcken ohne Overlap (!) so klar abgrenzt, dann sehe ich keinen Grund, der einfachen 2:1 reduction zu misstrauen.

Gruß, Jan
 

Kurt

Aktives Mitglied
Hallo Jan,

wir benutzen das Binning hier nur, um herauszufinden, ob man zur fotografischen Ausreizung des Auflösungsvermögens einer f/20 Optik mit einem Pixelraster von 7,5 µm...
vielen Dank für die Klarstellung.

"Unkompliziert" wäre für mich als Gelegenheits- Planetefotograf die Anpassung des Öffnungsverhältnisse an den vorhandenen Kamerachip :smiley61:

Gruß Kurt

 

Jan_Fremerey

Aktives Mitglied
Zitat von Kurt:
"Unkompliziert" wäre für mich als Gelegenheits- Planetefotograf die Anpassung des Öffnungsverhältnisse an den vorhandenen Kamerachip
Hallo Kurt,

das ist ja genau der Punkt, um den man sich hier streitet: Wie muss ich das Öffnungsverältnis bei 3,75 µm Rasterweite des Kamerachips anpassen, um das volle Auflösungsvermögen der Optik zu erfassen, bei f/10 oder bei f/20, und insbesondere: Verliere ich bei f/10 gegenüber f/20 überhaupt etwas an Detailzeichnung ?

Bei f/10 habe ich ja im Hinblick auf das Seeing immerhin den Vorteil, dass ich 4x kürzer belichten kann und 4x mehr Bilder in vorgegebener Zeit auf die Platte bekomme, und den Abbildungsmaßstab kann ich je nach Bildqualität auch über eine Nachvergrößerung gewinnen.

Nach welchen Gesichtspunkten passt Du denn das Öffnungsverhältnis an ?

Gruß, Jan
 

Kurt

Aktives Mitglied
Hallo Jan,

...Nach welchen Gesichtspunkten passt Du denn das Öffnungsverhältnis an ?
bei meinen jümgsten Versuchen an Mond, Mars und Saturn mit dem 16" f/4 Newton und der ASI120MM hab ich auf ca. f/12 verlängert. Bisher ist es mir nicht in den Sinn gekommen hier mit f/15 oder gar f/20 zu arbeiten oder systematische Versuche dazu durchzuführen.

Gruß Kurt

 
Zuletzt von einem Moderator bearbeitet:
Status
Es sind keine weiteren Antworten möglich.
Oben