Erster Mars dieses Jahr

Status
Es sind keine weiteren Antworten möglich.

Ehemaliges Mitglied 31195

Hallo,

nachdem das Seeing bei Jupiter so katastrophal war, bin ich später dann doch noch mal aufgestanden und habe mich am Mars versucht - der erste dieses Jahr. Es schien da etwas besser zu sein. Mit der ASI183MM ist das ein IR-RGB-Kompositbild. Das Teleskop war das 8" EdgeHD mit einer 2,25xBaader Hyperion Barlow:
Mars_LRGB.jpg
Mars_Stellarium.jpg

Daneben die Ansicht aus Stellarium, die zeigt, was man sehen müßte. Ich hoffe man sieht ein paar Übereinstimmungen. Ich weiß aber auch nicht, wie genau Stellarium ist.

Für das Luminanz-IR habe ich ca. 20000 Bilder aufgenommen und die besten 2000 gestackt. Für RGB habe ich jeweils nur ca. 2000 aufgenommen und 1000 gestackt. Für meine Verhältnisse ist das bei Planeten "big data". Am linken Rand der dunkle Streifen ist ein Artefakt. Kennt jemand Tips, wie man das vermeidet? Ich nehme nicht so oft Planeten auf.

Gruß

*entfernt*
 
Hi Haiko.
Der war aber auch nicht einfach wie es mir scheint. Trotzdem zeigen sich sehr schöne Details. :y:
CS Jozef
 
Sieht Klasse aus.
 
Hallo,

ja Danke euch allen.
Zwischen dem "Müll" (schlechtes Seeing) findet sich anscheinend doch das eine oder andere gute Stück, aus dem man ein leidliches Gesamtbild machen kann. Man muß halt genügend haben.
Den dunklen Halbring am Rand sieht man schon ansatzweise vor dem Schärfen nach dem Stacken, meine ich. Komischerweise bei zwei Stackingprogrammen (AS3! und PSS) und verschiedenen Teilvideos. Das scheint kein reines Schärfungsartefakt zu sein. Mal sehen ob ich das weg bekomme oder reduzieren kann.

Gruß

*entfernt*
 
Hallo Heiko,
du kennst mich ja aus der "Kunstecke";), deine Aufnahme ist abgesehen von dem Artefakt sehr gut und wenn man das eine oder andere Programm nutzt kann man da noch einiges machen. Ich habe mir mal erlaubt deine Aufnahme mit wenigen Klicks nach zu arbeiten. Besser wäre für mich das Rohbild gewesen, wenn Dir das Ergebnis gefällt , schicke ich Dir und auch jeden anderen Sternfreund den Link zu den Programm zu.Mal abgesehen von "Sternfreunden"die ihr "Wissen" mit ins Grab nehmen wollen, teile ich selbiges wie bei der "Kunst" gerne:)...
Hier nun mal das Ergebnis:
Deine Aufnahme:
Mars_LRGB.jpg

dann kurz nachgeschärft:
Mars 1.jpg

noch etwas mehr,aber da wird es bei deinem Bild schon sehr eng:
Mars 2.jpg

neben der Malerei mache ich ja in Sonne und ich habe in letzter Zeit einige meiner Sonnenaufnahmen auch mit diesen Programm nach gearbeitet und war hin und weg! Schau mal hier "Meine schönste Protuberanz " aufgenommen von mir in 2015 :
Alte Bearbeitung mit PS und LightRoom:
P1.jpg

ja und dann neu:
P2.jpg

Resultat, es liegt nicht nur am Seeing oder verwendeten Teleskop....
allzeit
CS
K.Heinz
 
Hallo K.Heinz,

ja, ich weiß: "Die Säulen der Schöpfung". Leider sind mir diese Fähigkeiten nicht gegeben und im Moment fehlt mir Zeit und Muße mit so was anzufangen (ähnlich wie: "Können Sie Klavier spielen? - Keine Ahnung, hab's noch nie probiert!"). Ich habe noch ein paar Jahre bis zum (Un-)Ruhestand. Aber tolles Projekt.

Deine Bearbeitung oben, da kann ich nur sagen: Wow!. Da fragt man sich: Wo steckt das in den Daten und was ist davon real oder Artefakt. So ein bißchen habe ich da meine Zweifel. Ist ja auch nicht das Original, sondern nur die komprimierte JPEG-Version. Aber gut sieht es auf jeden Fall aus. Wie heißt die Software?

Viele Grüße

*entfernt*
 
Hallo Heiko

hallo Sternfreunde,

ja ob das dann alles Real ist, weis ich auch nicht,aber es sieht Klasse aus ;-)

hier der Link zu der Site mit der Software:



http://topazlabs.refr.cc/karlheinzv



wenn Ihr über diesen Link später kauft bekommt Ihr 15% Rabatt ;-)

Ihr könnt auch schon vorher die Module runterladen und 30 Tage testen. Später könnt Ihr dann die gekauften Kennwörter einsetzen. Habe ich auch so gemacht, dann kauft Ihr nicht die Katze im Sack!

Die Module laufen sowohl unter PS als plugin als auch als Einzelprogramme.

Ihr müsst also nicht warten.

Dieses Programm habe ich runtergeladen und später gekauft:

Topaz Sharpen Al

es gibt aber noch weitere die ihrer Aufmerksamkeit verdienen...

Wenn jetzt noch schönere und von vielen Sternfreunden gewonnene und

"bearbeitete Bilder "hier reinkommen, ja dann haben wir doch alle was davon! Oder?
Ich freue mich auf die Ergebnisse...

allzeit CS

K.Heinz
 
Das ist wirklich erstaunlich. Mich würde interessieren, was raus kommt, wenn den Rohstack da durchjagt.

Hm, ob das wohl einige abartig guten Planetenbilder der letzten Wochen erklärt, die mit kleinen Öffnungen gemacht wurden und die ganzen Spekulationen über Albedostrukturen auf Ganymed.

Das ist die Büchse der Pandora der Planetenfotografie. Ich glaube ich lade mir das mal runter und schaue was sich so alles in meinen alten Planetenbildern versteckt hat...oder auch nicht :)

CS Joachim
 
Ah, danke für den Link, das Topaz wurde auch hier bereits hie und da besprochen - auf jeden Fall interessant!

Man müsste versuchen, den Mars mit etwas weniger als Max-Signal aufzunehmen, um ja nicht überzubelichten, damit die Ränder der dunkleren Gebiete vom Seeing nicht zu sehr weggefressen werden. Und die Pixelgröße sollte wohl auch passen.

Wie Heiko schon sagte, sollte man auch checken, ob die errechneten Strukturen (so scharf sie sind) auch annähernd der Wirklichkeit entsprechen... da habe ich keine Erfahrung und Vergleiche, bis auf obigen Mars...

lg
Niki
 
Aha, also von Topaz die auch diesen Entrauscher (Topaz denoise) machen. Das ist wahrscheinlich das gleiche Prinzip basierend auf einer KI (neuronales Netz).
Link zur Grafik: https://p6n7n9c3.rocketcdn.me/blog/wp-content/uploads/2019/10/Clip5Blog.jpg
Dieses Bild von der Webseite zeigt eigentlich was Sache ist. Schaut euch das Schild mit der Schrift an. Das Bild links sieht deutlich schärfer aus. Aber von der Schrift kann man trotzdem nicht mehr lesen. Mehr Information ist da nicht drin. Es sieht nur so aus als ob. Aber vom Gesamteindruck sicherlich besser, wenn es nur darauf und nicht auf wissenschaftliche Korrektheit ankommt. Ungefähr so wie ein Sprachenimitator, der sich für einen Uneigeweihten so anhört, als ob er perfekt eine große Anzahl von Sprachen spricht, der aber für den, der es versteht nur etwas von sich gibt, was sich anhört "... als ob".

Gruß

*entfernt*
 
Ich fürchte, wir werden hier bald jede Menge irrer Bilder haben, die fantastisch aussehen und doch nur AI-subpixelgeschärfte Erfindungen einer Software sind, die deconvolutionierte Stackings nochmals durch Algorithmen jagen... da bei Interesse und Euphorie jedesmal nachsehen zu müssen, ob das überhaupt stimmen könnte, wäre echt fad...

Schon die Entfaltungsrechnung führt Artefakte ein, und das KI-Schärfen tobt sich dann auch noch aus... :unsure::oops:

lg
Niki
 
Aha, also von Topaz die auch diesen Entrauscher (Topaz denoise) machen. Das ist wahrscheinlich das gleiche Prinzip basierend auf einer KI (neuronales Netz).
Link zur Grafik: https://p6n7n9c3.rocketcdn.me/blog/wp-content/uploads/2019/10/Clip5Blog.jpg
Dieses Bild von der Webseite zeigt eigentlich was Sache ist. Schaut euch das Schild mit der Schrift an. Das Bild links sieht deutlich schärfer aus. Aber von der Schrift kann man trotzdem nicht mehr lesen. Mehr Information ist da nicht drin. Es sieht nur so aus als ob. Aber vom Gesamteindruck sicherlich besser, wenn es nur darauf und nicht auf wissenschaftliche Korrektheit ankommt. Ungefähr so wie ein Sprachenimitator, der sich für einen Uneigeweihten so anhört, als ob er perfekt eine große Anzahl von Sprachen spricht, der aber für den, der es versteht nur etwas von sich gibt, was sich anhört "... als ob".

Gruß

Heiko

Es kann das Parkschild ins Chinesische übersetzen. Das ist doch cool.
 
Tja Niki,

es muß ja nur so aussehen als ob. Und dann haben wir die 3-Zöller Fraktion, die jeden 14-Zöller an Auflösung schlagen. Dann argumentiere mal dagegen an ....

*entfernt*
 
Ich fürchte, wir werden hier bald jede Menge irrer Bilder haben, die fantastisch aussehen und doch nur AI-subpixelgeschärfte Erfindungen einer Software sind, die deconvolutionierte Stackings nochmals durch Algorithmen jagen... da bei Interesse und Euphorie jedesmal nachsehen zu müssen, ob das überhaupt stimmen könnte, wäre echt fad...

Schon die Entfaltungsrechnung führt Artefakte ein, und das KI-Schärfen tobt sich dann auch noch aus... :unsure::oops:

Hallo Niki,

mag alles sein. Der Drang die Regler ganz an den Anschlag zu ziehen und pseudo-scharfe Bilder mit nicht existierenden Details zu erzeugen, die viele Ahhs und Ohhs erzielen, wird sicher sehr groß sein. Viele werden dem nicht widerstehen können. Aber wenn es wie versprochen diese garstigen Artefaktringe nicht erzeugt, die bei den gängigen Programmen bei mir immer das Limit vorgeben, obwohl man dem Bild ansieht, dass noch was ginge, dann wäre es einen zweiten Blick wert. Es liegt nur viel stärker in der Verantwortung des Benutzers ob er "schummeln" will oder nicht. Das wird sicher lustig, wenn ich mir die aggressiven Diskussionen hier über Auflösen und Nicht-Auflösen mit welcher Öffnung der letzten Wochen anschaue.

CS Joachim
 
Hallo,

am besten macht man seine Bilder dann nur noch für sich selbst und freut sich daran. Wozu soll man seine mühsam erzeugten Bilder irgendwo einstellen, wo es vor KI-getunte Planeten- und Deep-Sky-Fotos wimmelt, die ein neuronales Netz aus einem Fliegenschiß erzeugt hat, nachdem es übers Internet daran trainiert wurde, wie das richtig auszusehen hat.

Gruß

*entfernt*
 
Es liegt nur viel stärker in der Verantwortung des Benutzers ob er "schummeln" will oder nicht.

_affeaugen: Das möchte ich sehen, dass die Leute dann ihre unscharfen Wahrheiten unter die Ohh-Uhh-Aaahh-AI-Bilder werfen. Ich denke, den Kampf haben wir schon verloren. "Make our pictures great again", darf man wohl blondlockig versprechen...

Das wird sicher lustig, wenn ich mir die aggressiven Diskussionen hier über Auflösen und Nicht-Auflösen mit welcher Öffnung der letzten Wochen anschaue.

Ob ich da dabei sein will, weiß ich nicht... :eek:
Es wird wahrscheinlich einfach eine weitere Entwicklung sein, von digital zu lucky imaging, von Deconvolution zu AI-Erfindungen, und letztlich gebe ich in Google Maps ein Fähnchen ein, und 30 mir unbekannte Remote-Teleskope nehmen virtuell von meinem Fähnchen-Standort das Objekt meiner Begierde am Himmel auf, während ich fernsehe.

Tags darauf postet sich das Ding ganz von selbst hier und schickt mir die Anzahl der erzielten Likes aufs Handy. Das ganze wird von einer App gesteuert, die für 99 Euro pro Jahr alles macht, was wir bislang in stundenlangem Gegacke selbst gemacht haben... "The virtual Astrographer"... am besten fangen wir gleich damit an, sie zu programmieren. :coffee:

lg
Niki
 
Ja Joachim,
Hallo Niki,

mag alles sein. Der Drang die Regler ganz an den Anschlag zu ziehen und pseudo-scharfe Bilder mit nicht existierenden Details zu erzeugen, die viele Ahhs und Ohhs erzielen, wird sicher sehr groß sein. Viele werden dem nicht widerstehen können. Aber wenn es wie versprochen diese garstigen Artefaktringe nicht erzeugt, die bei den gängigen Programmen bei mir immer das Limit vorgeben, obwohl man dem Bild ansieht, dass noch was ginge, dann wäre es einen zweiten Blick wert. Es liegt nur viel stärker in der Verantwortung des Benutzers ob er "schummeln" will oder nicht. Das wird sicher lustig, wenn ich mir die aggressiven Diskussionen hier über Auflösen und Nicht-Auflösen mit welcher Öffnung der letzten Wochen anschaue.

CS Joachim
so sehe ich das auch und deshalb habe ich auch diesen Link zum Programm für Euch eingestellt! Wenn man es dosiert nutzt, macht es auch vieleicht Sinn, aber irgendwo belügt man sich ( und das erlebte Seeing) und nimmt jeden anderen der es nicht kennt und nutzt die Freude an seiner Arbeit und viel schlimmer,einge Sternfreunde zweifeln dann an ihrem Tun und geben auf oder werfen ihren 6 oder 10 Zöller in den Müll! Also, dosiert ,immer der Realität nach ist diese Software zu empfehlen, aber nicht um andere was zu zeigen was mit der XY Öffnung garnicht geht...
CS
K.Heinz

;)jetzt bin ich ja mal gespannt was da noch kommt:)
schönen Abend noch...
 
Hallo Heiko,

die Katze ist jetzt aus dem Sack. Die wird man da nicht mehr rein kriegen.

Wenigstens weiß ich jetzt, wie jemand mit der selben kleinen Öffnung wie ich Bilder machen kann, die ich niemals zustande bringen könnte, obwohl bei mir eigentlich alles drauf ist, was die Öffnung zeigen kann.

Ich werde mir die Probeversion mal runter laden. Es gibt so ein paar Testobjekte (Hexagon auf Saturn, die kleinen Krater in Plato), die bei mir andeutungsweise zu sehen sind, ich aber nie klar raus bekommen habe. Mal sehen, was das Ding draus macht.

CS Joachim
 
Moin,

na, man muss die Kirche nicht aus dem Dorf rücken, die Schärfung geht bis zu einem gewissen Grad, dann merkt man - ich hab's mit Mond probiert - das Bild schlagartig künstlich, da die Artefakte deutlich werden.

Aber was man erstmal für sich hinnehmen muss, eine fortgeschrittene AI kann auf Grund der gelernten Ähnlichkeiten eine Menge leisten, man muss ihr nur sagen was das Ziel ist. KI wird ja auch im wissenschaftlichen Umfeld genutzt. Ich denke da werden wir viel Murks sehen, aber der Tag wird kommen wo wir Tools haben werden, die die Bildauswertung deutlich weiter treiben als die Werkzeuge, mit denen wir heute arbeiten, da bin ich sicher.

CS
Jörg
 

Wenn ich die 100% roten Ha Werbe-Bildchen hier (und im Rest der Welt) sehe, dann brauchen wir eher bald Monitore, die 120% Rot darstellen können... vielleicht ist das mit Stromschlägen auf die Netzhaut möglich. _jungeschlagen:

Nein, Dosierung ist ein Metier von "Zurücknahme", und diese Kunst ist wie Jazz. Es ist die Kunst einer Minderheit. ;)
Außerdem wird durch die sanfte Anwendung von "die Software meint, es wäre hübsch, an dieser Stelle ein paar Linien einzufügen" das Foto ja nicht authentischer... es verdeckt nur die Tatsache ein wenig, dass hier ein Programm zu malen beginnt.

Das kann ich händisch sicher auch ganz gut in Photoshop. Mit HI (Human Intelligence) geht das wunderbar, M13 malt sich ja bei Bedarf (und übrigens hervorragend!) auch das Universum aus Öl, aber das ist dann keine Astrofotografie mehr im traditionellen Sinn.

Ich möchte auch nicht wissen, ob man nicht mal versucht ist, einen screeshot vom Nasa-Globus zu machen und ein wenig in sein Bild einzuarbeiten, ein wenig Maske da oder eine kleine Verrechnungsoperation dort... wäre ja kein Problem für uns hier. Den letzten (schlecht) kolorierten Kometenschweif vom Neowise sehe ich immer noch vor mir... naja... wenn man auf diese Weise mithalten möchte... :sick:

lg
Niki
 
Aber wenn es wie versprochen diese garstigen Artefaktringe nicht erzeugt, die bei den gängigen Programmen bei mir immer das Limit vorgeben, obwohl man dem Bild ansieht, dass noch was ginge, dann wäre es einen zweiten Blick wert.

Hallo,

das kenne ich nur zu gut. Eigentlich veträgt das Bild noch Schärfung aber der Planetenrand der hellen Seite zeigt schneller Artefakte.
Aber ich bleibe da bei meiner Lösung:
2 Versionen erstellen, eine weiche wenig geschärfte mit Fokus Planetenrand und eine normale mit Blick auf die Details innerhalb der Planetenkugel. Anschließend arbeitet ich über Ebenen in gimp den weichen Rand in die normale Version ein.
Hier zum Vergleich eine ähnliche Ansicht vom 30.08.20 gegen 02:50 Uhr:
Mars_300820_025021_ani.gif


Gruß,
Holger
 
Hallo Niki,

Lucky Imaging und Deconvolution sind Methoden die quasi ihre Information zum Schärfen aus der Aufnahme selbst nehmen. Beim LI werden halt unscharfe Aufnahmen beim Stacken einfach weggelassen und bei Dekonvolution geht man (mit Recht) davon aus, daß ein Stern eine Punktlichtquelle ist und man versucht aus dem tasächlichen Abbild der Sterne eine Umkehrfunktion zu berechnen, die aus einem verwaschenen Stern wieder einen Punkt machen würde und wendet das dann aufs ganze Bild an. Das ist mehr oder weniger komplexe Mathematik, hat aber eigentlich nichts mit Tricksereien zu tun. Das kann nicht perfekt sein, deswegen gibt es Artefakte.

Beim KI schärfen steckt aber externe Information im neuronalen Netz, die man ins Bild bringt. Das könnte man im Prinzip so trainieren, daß sie wirklich aus jedem Fliegendreck eine Andromedagalaxie macht, die sich nur grob an der Form des Fliegendrecks orientiert. Im Fliegendreck steckt dann nicht wirklich etwas von der Andromeda.
Stell Dir ein eVscope mit einem entsprechend mächtigen neuronalen Netz in der Anzeigesoftware vor, dann bekommst Du damit wirklich gestochen scharfe Bilder der Objekte - Hurra! Aber eigentlich kommt die Information des Bildes von außen. Da kann man sich auch gleich die Bilder direkt aus dem Internet anschauen - "So, what's the point?". Genauso wird es mit entsprechend aufbereiteten Astrofotos sein.

Moderat angewendet könnte das aber trotzdem ein sinnvolles Tool sein, wenn die KI z.B. darauf trainiert wird, das zu machen, was eine Dekonvolution macht. Z.B. wie Starnet nicht die Sterne komplett zu eliminieren, sondern sie wieder in ihre mehr punktähnliche Form zurückführt um die Schärfung dann auf den Rest anzuwenden.
Aber wer wendet so was moderat an, wenn er unbedingt ein APOD haben will (was dann aber eh nichts mehr Wert ist, da ja jeder Fliegendreck ...)?

Gruß

*entfernt*
 
Hallo zusammen,

ich hab mir mal die Probeversion runtergeladen. Wenn man das auf den Rohstack normal verwendet, egal wo man die Regler hinschiebt, dann liefert das schwächere Ergebnisse als z.B. Registax oder Fitswork.

Das linke Bild habe ich letztes Jahr gemacht, damals war ich EBV technisch noch Anfänger und habe auf Teufel komm raus geschärft mit Registax und dann in Fitswork einfach den Konstrast erhöht bis zum geht nicht mehr. Das mittlere ist moderat mit Registax vorgeschärft und dann mit SAI nachgeschärft bis SAI den Rand nicht mehr im Griff hatte (ja, das schafft das auch nicht, nur anders, kein Ring sondern der Rand wird einfach immer dicker in eintönigem Grau), das linke Bild ist mir Registax stärker vorgeschärft und dann mit SAI nachgeschärft. Bei beiden habe ich in Gimp noch den Kontrast erhöht. Farben sind unverändert.
1599225135310.png


Also ich seh jetzt da nix, was Registax oder Fitswork nicht auch sichtbar machen konnten. Das Bild ist nur deutlich glatter/rauschfreier.

Keine Ahnung wie @M13 das Marsbild so derartig hochdrehen konnte. Wenn ich das gemacht habe, hat SAI auf dem Planeten alles mögliche Veranstaltet aber das waren keine Wolkenformationen mehr sondern irgendwelche verzerrten Geister, die da rumfliegen.

CS Joachim
 
Status
Es sind keine weiteren Antworten möglich.
Oben