Re: von Janssen bis Neander 1.midres Mosaik am 14
Hallöchen Jan,
Zitat von Jan_Fremerey:
Der Begründung Deiner Vermutung, dass bei dem Verkleinerungsverfahren ein systematischer Fehler vorliegt, kann ich aber nicht ganz folgen. Deine Feststellung, dass der Fehler „maximal ein Pixel breit“ sein kann, verschleiert doch etwas die Tatsache, dass beim Verkleinern des fertigen Bildes auf 50% nicht weniger als 3 von 4 Bildelementen verworfen werden.
Dann will ich es noch einmal versuchen zu erklären. Nehmen wir an, jedes Pixel trägt eine echte Information. Wenn ich nun das Bild halbiere trägt immer noch jedes Pixel die echte Information, die man mit dieser Auflösung eben darstellen kann. Erst wenn ich das Bild jetzt wieder aufblähe, werden Zwischenwerte erfunden. Dieser eventuell falsche Zwischenwert liegen aber nur einen Pixel von den echten Werten entfernt.
Ganz sauber ist diese Erklärung zugegebenermaßen nicht, denn es hängt ein wenig von dem Verfahren am, wie man vergrößert und verkleinert. Ich habe das mal bei diesem Minibildchen hier auf drei Unterschiedliche Varianten gemacht:
Link zur Grafik:
http://forum.astronomie.de/phpapps/ubbthreads/ubbthreads.php/ubb/download/Number/4666/filename/aufloesung.jpgganz oben: original Kante
darunter: Vergrößern/Verkleinern Variante 1 (ist in diesem einfachen Fall identisch mit dem Original)
darunter: Vergrößern/Verkleinern Variante 2 (Fehler ist 1 Pixel groß)
darunter: Vergrößern/Verkleinern Variante 3 (Fehler ist 2 Pixel groß)
Der Fall 100% weiß auf 100% schwarz innerhalb nur eines Pixels ist natürlich ein abolutes Extrembeispiel. Bei unseren Bildern sind die Kontraste immer harmloser und die hier geschilderten Unterschiede also noch weniger deutlich.
Was ich damit demonstrieren wollte ist, dass wenn du das verkleinern/vergrößern auf das Endbild anwendest, ein "falsches" Pixel immer in unmittelbarer Nähe zu einem richtigen Pixel steht, das Ergebnis also nur minimal leidet.
Was ist aber, wenn diese Situation schon ganz am Anfang der Nachbearbeitungskette auftritt. Das falsche Pixel ist zunächst auch hier unmittelbar neben einem richtigen. Jetzt verwende ich aber einen Schärfungsfilter mit z.B. Radius 20. Das Ergebnis ist, dass mein falsches Pixel jetzt über 20 Pixel hinweg die Werte verfälscht - und das fällt auf.
Oder falls mein Geschwafel jetzt zu technisch war, nochmal eine andere Erklärungsvariante:
Wenn du Bilder als hochaufgelöste 16-Bit-Tiff-Aufnahmen gewinnst, dann behälst du diese Information bis zum vorlezten Schritt bei, auch wenn dein letzter Schritt darin besteht, daraus zur einfacheren Präsentation ein simples jpg-Bild zu machen. Und in der Tat, wenn ich mir das Endresultat als Tiff oder als Jpg anschaue, sehe ich nur minimalste Unterschiede. Daraus aber zu schließen, man müsse die Aufnahme gar nicht als 16-bit Tiff machen, sondern Jpg würde auch reichen, ist falsch.
Daher nochmal in aller Deutlichkeit: Ich behaupte NICHT, dass ein extrem hoher Abbildungsmaßstab besser oder schlechter als ein kleinerer mit kürzeren Belichtungszeiten ist, ich sage lediglich dass dein Verfahren (Endresultat verkleinern/vergrößern) nicht dazu geeignet ist zu Unterscheiden, welches die bessere Methode ist.
Zitat von Jan_Fremerey:
Peter Müller – „peterm“ - hatte ja kürzlich in einer sehr ausführlichen
Diskussion über diese Frage eine theoretisch sehr überzeugend begründete Formel für die bei Aufnahmen mittels Digitalkamera optimale Blendenzahl f/D der Teleskopoptik – inklusive etwaiger Nachvergrößerungselemente wie Barlow-Linsen – vorgeschlagen.
Die Diskussion mit peterm um den "richtigen" Abbildungsmasstab hatte ich übrigends mit großem Interesse verfolgt. Aber obwohl ich Mathematiker bin und somit die Theorie liebe, bin ich dennoch ein "praktischer Theoretiker". Unter dem "praktisch" verstehe ich, dass aller Schönheit und Eleganz der Theorie zu trotz es manchmal einfacher ist, einfach etwas auszuprobieren anstatt darüber endlose Diskussionen zu führen. Daher macht doch einfach das nächste mal, wenn ihr mit hoher Nachvergrößerung bei gutem Seeing arbeitet, im Anschluss an eure Aufnahmesequenz nochmal eine mit 2x2-Binning. Das kostet einen 5 Minuten Aufnahmezeit und in der Nachbearbeitung (man macht ja alle Arbeitsschritte der "richtigen Bearbeitung" einfach nach) noch ein weiteres Viertel Stündchen - insgesamt also wahscheinlich weniger, als ich jetzt zum Verfassen dieser Antwort benötigt habe ...
Zitat von Jan_Fremerey:
Im übrigen verarbeite ich selbst meine Mond- und Planetenbilder seit Jahren mit Nachvergrößerungsfaktoren zwischen 1,5 und 2 ohne erkennbare Qualitätseinbußen, siehe z.B. Jupiter-Avatar in der linken Bildleiste.
Ich halte auch das sofortige (vor Beginn des Nachschäfens) vergrößern der Bilder für ein vernünftiges Verfahren - darum mittelt man ja auch vorzugsweise Subpixelgenau. Und zweifelsohne, deine tollen Bildresultate sprechen genauso gut für dein Verfahren wie die tollen Bildresultate der anderen mit langen Aufnahmebrennweiten für deren Verfahren spricht. So lässt sich aber nicht herausfinden, welches nun das "bessere" Verfahren ist (falls es so etwas überhaupt gibt).
Meine persönliche Vermutung ist übrigends, dass man meistens tatsächlich mit weniger Brennweite arbeiten könnte, dass bei gutem Seeing sich aber auch in deinen Augen übertriebenes aufblähen der Aufnahmebrennweite als abolut lohnend erweisen kann. Genaueres weiß man wohl erst, wenn man den Test tatsächlich einmal durchexerziert. Insgesamt sind wir hier ja aber in einer sehr luxeriösen Lage - wir diskutieren nicht die Methoden, um endlich einmal tolle Bilder zu bekommen, sondern wir diskutieren tolle Bilder, um endlich mal die richtige Methode zu finden
.
Grüße
Andy