Topaz Denoise AI

Status
Es sind keine weiteren Antworten möglich.

Mondkrater

Aktives Mitglied
Hallo,

ich habe mir eine 30 tätige Testversion von Topaz Denoise AI heruntergeladen.
Es ist bemerkenswert, was aus Bildern, die eigentlich unbrauchbar sind noch herauskommt.

Rima Hygenius in Adobe Lr + Ls + Topaz Denoise AI bearbeitet
Moon_202710_Rima_Hygenius_Topaz.png


Ohne TD
Moon_202710_Rima_Hygenius_web.png


Gegend um Plato in Adobe Lr + Ls + Topaz Denoise AI bearbeitet
Moon_191519_Plato-denoise.png


Ohne TD
Moon_191519_Plato.png


Gruß aus Mittelsten-Thüle
Manfred
 
Hallo,

spannend. Wieviel Zeit hat das Programm für die Bearbeitung benötigt, würde mich noch interessieren.

CS
Jörg
 
Hallo Manfred,

zunächst mal finde ich deine Mondbilder, auch ohne TopazDenoise, alles andere als unbrauchbar. Ich bin zwar DeepSky Astrofotograf, aber würde ich solche Mondfotos machen, wäre ich damit schon ziemlich zufrieden. Aber es kann sein dass da unter echten Mond/Planeten Experten die Ansprüche anders sind.
Ich hatte mir die Testversion auch gegönnt und auch ein DeepSky Bild damit bearbeitet. Zwischen Erstaunen und Naserümpfen war da irgendwo meine Gefühlslage. Bei deinen Bildern empfinde ich das erste schon als erstaunlich. Das von Plato wirkt aber auf mich sehr künstlich. Freilich kann man jetzt hingehen und den TopazEffekt abmildern um eben das zu vermeiden. Auch nicht zu unterschlagen ist, dass die Software nicht nur entrauscht sondern gleichzeitig schärft.

Interessant ist ja wie eine solche Software funktioniert. Zumindest wenn man der Website glauben darf. Understanding AI-powered noise reduction
Die Software wird also angelernt, selbstständig zu unterscheiden, was ist Rauschen und was nicht und wie komme ich dazu ein rauschfreies Ergebnis zu liefern. Ich könnte mir sehr gut vorstellen, dass die Entwickler die Software nicht mit Astrofotos irgendeiner Art angelernt haben. Insofern warte ich noch etwas ab, bis es die TopazDenoiseAstroAI Version gibt:) Sicherlich nur ein Problem von Angebot und Nachfrage.
Ein anderer Ansatz ist der, die Rauschquellen zu analysieren die zum Gesamtrauschen des Bildes beitragen und diese so gut es geht (in Annäherung) zu kompensieren. Diesen Ansatz verfolgt z.Bsp. das Modul MureDenoise in PixInsight. Ich finde beide Ideen sehr spannend, bevorzuge aber momentan den der dezidierten Astrosoftware.

CS Frank
 
Hallo ihr beiden,

Jörg, das geht schnell, man kann es direkt verfolgen.

Frank, es war ein schneller Test. Ich habe gar nicht viel verstellt. Du hast recht, die Bilder kann man schärfen und/oder das Rauschen mindern. Danke auch für den Link. Hoffentlich bleiben die Entwickler am Ball und berücksichtigen unsere speziellen Anforderungen.

Gruß
Manfred
 
Moin,

ich verfolge aus einiger Entfernung das Thema AI, da es mir von der Methodik her noch zu fremd ist, spannend ist es allemal. Rauschen ist ein stochastischer Prozess, quasi das Muster aller Stochastik, ich kann mir schon gut vorstellen, dass man eine AI recht gut darauf trainieren kann. Vor allem wenn das so performant ist ist das sicher eine hochinteressante Sache. Ich bin da bei Frank, das muss man im Auge behalten, draufspringen würde ich aktuell nicht, da man auch im Umgang damit seine Erfahrungen sammeln muss, da bin ich was EBV angeht noch zu sehr am Anfang.

CS
Jörg
 
Hallo zusammen,

ich experimentiere auch gerade mit der Probeversion von Topaz Denoise AI. Am besten sind die Ergebnisse, wenn man den Rohstack moderat vorschärft zum Beispiel mit Fitsworks Iterativen Gaußschärfen oder Registax's Wavelet Schärfen. Wenn man Denoise AI direkt auf den Rohstack anwendet, bügelt die Software sämtliche schwachen Kontraste platt (wie man an den Bildern oben sieht). Scheinbar liegen diese Kontraste im Rohstack unter der Schwelle, die von der AI beim Trainingsmodell als Rauschen deklariert wird. Einen gewissen Ausgangskontrast braucht Denoise AI.

Wenn ich allerdings egal was von meinen fertig bearbeiteten Mond, Planeten und Sonnenaufnahmen durch jage, setzt Denoise AI immer nochmal einen drauf.

Wo das Teil richtig aufdreht ist im Deepsky Bereich bei Galaxien und vor allem Gasnebel. Bei letzteren bringt das Teil ein derartiges Maß an Schärfe und Details hervor, dass ich mich frage, ob das überhaupt noch alles real ist, was da zum Vorschein kommt.

Ich habe bis jetzt nur Freeware eingesetzt, aber das werde ich mir wohl zulegen, wenn die Probelizenz ausläuft. Wenn man ein wenig experimentiert und heraus hat, worauf das Program am besten reagiert, liefert das mit zwei drei Mausklick ein Ergebnis, dass Lichtjahre besser ist als alles, was ich mit sämtlichen Tricks in Gimp zustande bekomme. Das einzige, was ich ein wenig stört, ist das völlige Glattbügeln des Hintergrunds, das nur schwer zu vermeiden ist.

@frasax Wurde eine spezielle Astroversion on Denoise AI denn angekündigt?

CS Joachim
 
ich habe auch diese 30 Tage Topaz hinter mir - mit genauso gemischten Gefühlen.
Auf der einen Seite liefert die Software nahezu artefaktfreie, rauschfreie und scharfe Ergebnisse. Wenn ich an das leidige Thema Schärfe-Halos/Zwiebelschalen denke, egal welcher Algorithmus genutzt wird - das gibts hier nicht. Bei DS-Aufnahmen z.B. verkleinert Topaz die Sterne (je nach Einstellung natürlich) sehr sehr deutlich. Selbst seeingbedingt aufgeblasene oder leicht defokussierte Sterne sehen pötzlich nahezu perfekt aus. Aber leider passiert genau Dieses auch z.B. mit kleinen Hintergrundgalaxien -> werden zu Sternen.
Mir ist bei Nutzung von Topaz immer etwas flau in der Magengegend gewesen - man kann die Manipulation ja nicht nachvollziehen und welche Details sind nun im Ursprungsbild vorhanden und welche hat die Ai generiert?
Ich bin für meinen Teil ganz gut damit gefahren, eine (oder zwei) Topaz-Ebene über MEIN Bild zu legen und per "Dunkler" und/oder "Heller"-Funktion mit variabler Deckkraft zu überlagern.
Kaufen werde ich es erstmal auch nicht - mal sehen, ob der Markt noch was spezielles für die Asrofotografie nachlegt - Starnet++ machts ja vor...

viele Grüße - Ronald
 
Moin,

das riecht fast danach dass man auch wieder eine Sternenmaske braucht in der man alles zu kleine bündelt, dann die flächigen Objekte durch"nudelt" und dann alles wieder zusammenfügt, quasi also Entrauschen und Masken-Tool bräuchte. Wie gesagt, ich finde die Sachen auf der WebSite sehr spannend, aber momentan komme ich da noch nicht zu einem qualifizierten Urteil.

CS
Jörg
 
Interessante Sache muss ich auch mal ausprobieren.
Wird eigentlich Starnet++ weiter entwickelt irgendwie ziemlich ruhig darum.
 
@joetaiga nein, das war ganz doll ironisch gemeint :) Ich glaube das juckt die überhaupt nicht was die machen. Grundsätzlich kann ich mir das vorstellen, dass irgendwann sowas kommt, aber eher aus der Astroentwickler Ecke.

Cs Frank

Moin Frank,

das kann gut sein. Deep Learning ist ja gerade eine sehr aktive Sache - ich halte es gar nicht für sooo unwahrscheinlich dass die das irgendwann mal aufgreifen, denn die eigentliche Maschine muss ja nur weiter trainiert werden, wenn die sich einmal durch ne Datenbank wie ESO gewühlt hat sollte sie es begriffen haben... Groß coden wird man da nicht mehr müssen.

CS
Jörg
 
denn die eigentliche Maschine muss ja nur weiter trainiert werden, wenn die sich einmal durch ne Datenbank wie ESO gewühlt hat sollte sie es begriffen haben... Groß coden wird man da nicht mehr müssen.
Wird eigentlich Starnet++ weiter entwickelt


Hallo zusammen,
ich stelle mir das auch so vor, dass eine solche Software nur mit den richtigen Bildern trainiert werden muss, da ich aber außer drei Zeilen Code nichts zu Stande bekomme, lehne ich mich da mal nicht zu weit aus dem Fenster.
Bei Starnet++ ist es zum Beispiel so, dass die Software mit den Bildern des Autors trainiert wurden. Da der einen KAF 16200 an einem TAK FSQ benuzt, kommt mir das sehr entgegen:) Eigentlich müsste man Starnet jeweils auf sein eigenes Setup trainieren um optimale Ergebnisse zu erzielen, aber der Autor hat irgendwo mal geäußert dass er erstmal für sich behält wie er das trainieren macht.
Auch würde ich ein Neuronales Netzwerk nicht an ESO Bildern trainieren, sondern an echten Amateurbildern. Übrigens gibt es in Fitswork einen neuronalen Filter. Irgendjemand hier hat damit mal was gemacht und gepostet. Ich war bisher zu faul das mal zu testen.
Lange Rede kurzer Sinn: Die Methode mit solchen Filtern zu arbeiten, könnte ganz neue Wege aufzeigen. Gibt aber auch bestimmt Meinungen, die das ganz anders sehen.
Ich bin , wenn man mich privat fragt, der Meinung, das TopazDenoise nur eine kurze Mode ist. Wie alle anderen Rauschfilter in der Vergangenheit auch. Ich mag mich aber täuschen.

CS Frank
 
Hallo Manfred,

was hast Du als Hardware? Ich mache zwar keine Astrofotos und bin mit meinen Fotos in der Regel zufrieden, aber die digitalisierten Dias könnten schon eine Rauschentfernung brauchen, jedenfalls eine besser als das mit Affinity Photo geht.

Bevor ich mir vor 4 Jahren meine Mac gekauft habe, fragte ich alle Händler in meinem Umfeld, welche Ausstattung ich für die Bildbearbeitung brauche und habe alles ein bisschen besser gekauft als die Händlermeinugen waren. SSD und 16GB RAM war dann meine Ausstattung. Von Graphikkarte hat keiner gesprochen, also habe die die Grundversion gelassen, d.h. Intel Iris Pro Graphics 6200 1536 MB.

Und was lese ich jetzt bei Denoise AI als MINDEST-Anforderung? 2GB Graphikkarte ! Ich werd's erst gar nicht probieren, das Internet ist voll mit Berichten von Usern die über das Program klagen.

Gruß Uwe
 
Hallo Manfred,

was hast Du als Hardware?

Und was lese ich jetzt bei Denoise AI als MINDEST-Anforderung? 2GB Graphikkarte ! Ich werd's erst gar nicht probieren, das Internet ist voll mit Berichten von Usern die über das Program klagen.

Moin Uwe,

"mit einem Trecker darf man nicht auf die Autobahn!" :unsure: Topaz sagt ja genau welche Hardware man benötigt.
Also wenn die Mindestbedingungen nicht erfüllt sind, sollte man das Programm auf gar keinen Fall kaufen!
Übrigens ist heute auch der letzte Tag an dem das Programm noch günstiger und mit einem zusätzlichen Bonus abgegeben wird.
Wie dann jeder an welchen Reglern dreht ist wie immer Geschmackssache.
Als Anhang füge ich Vergleichsbilder bei - ohne große Kenntnis der vorhandenen Möglichkeiten! - sozusagen im "Automatikbetrieb".
Bitte auf 100 % und dann die Regionen von Augen und Ohren (innen - Haare) erforschen.

Gruß
Manfred
.
Ausgangsbild_1.jpg
DeNoise.jpg
 
Hallo,

ich finde den Ansatz eines AI-Filters in der Tat sehr spannend. Aber wenn ich mir die beiden Mondbilder anschaue, kommt da für meinen Geschmack doch Ernüchterung auf. TopazAI scheint die hellen Bereich, wie z.B. Kraterränder sehr gut zu schärfen, allerdings gehen in den dunkleren Bereichen allerhand Details verloren.

Beispeilsweise die Region um die Rimae Triesnecker im linken Bildbereich. Dort sind allerhand feine Strukturen, die in der mit TopazAI bearbeiteten Version verloren gehen. Auch im anderen Bild in den Mare, südlich von Plato um Mons PI herum werden einige Strukturen einfach glatt gezogen.

Klar, das passiert beim falschen oder übermäßigem Schärfen mit anderen Rauschfiltern auch. Vielleicht muss TopazAI für Mondaufnahmen auch einfach nur besser angelernt werden.

Das ist jedenfalls mein Eindruck. Ich denke es bleibt spannend, was im Bereich der AI-Rauschfilter demnächst noch alles passiert.

CS
Sven
 
@joetaiga nein, das war ganz doll ironisch gemeint :) Ich glaube das juckt die überhaupt nicht was die machen. Grundsätzlich kann ich mir das vorstellen, dass irgendwann sowas kommt, aber eher aus der Astroentwickler Ecke.

Cs Frank

Hallo Frank,

vielleicht haben die es gehört ;) Die haben mit der letzten Version nun eine Low Light Option eingefügt, die einige der Probleme mit Astrofotos behebt. Die Low Light Variante erhält die kleinen Hintergrundgalaxien nun deutlich besser. Dafür ist die Schärfung etwas geringer. Es ist in etwa der Rahmen, von dem ich mir unsicher war, ob das wirklich Details sind oder Artefakte durch die Überschärfung.

1592157304059.png

Das linke ist mit der klassischen Variante bei 75% Schärfe (100% macht die kleinen Hintergrundgalaxien komplett unkenntlich), das mittlere im Low Light Modus mit 100% Schärfe und das rechte ist alles was ich aus Gimp herausholen konnte. Bei den Denoise AI Bildern liegt nur der unbearbeitete Rohstack aus Siril zugrunde. Daher die schwachen Farben.

CS Joachim
 
Hallo Frank,

Hallo Joachim,

ich habe mir gestern nochmal eine Testversion geholt und diese Funktion auch entdeckt. Ich bereite gerade ein Video dazu vor, welches ich morgen oder am Dienstag hier posten werde.
CS Frank

Da bin ich mal gespannt :)

Bei meinem Beispiel produziert Denoise AI allerdings beim genauen Hinschauen Artefakte.
1592159808543.png

Der Farbanteil der Artefakte verschwindet schlagartig, wenn man Color Noise Reduction von 0.04 auf 0.05 schiebt. Die Luminanz der Artefakte bekommt man aber nicht weg. Das tritt auch schon bei niedrigen Schärfeleveln auf.

Zugegeben...normal sieht man das nicht. Vielleicht ab Postergröße 1m x 1m...

Ist das bei dir auch so?

CS Joachim
 
Interessant finde, dass die im Gimp-Bild nur schemenhaft erkennbaren Vordergrundsterne vor der Galaxie, auf den Topz-Bildern als perfekte punktförmig definierte Sterne darstellen. Diese Beobachtung hatte ich bei meinen Versuchen auch gemacht.
Dass das solch eine Bildschärfung/manipulation nicht artefaktfrei sein kann ist klar - alleine die Flächendifferenz der "Matschsterne" und der resultierenden "Punktsterne" muss mit Informationen gefüllt werden. Und AI und Artefakt habe beide ihren Ursprung im Wort "artis" und "factum" - gemachtes Handwerk ;)
Klassische Schärfealgorithmen verstärken ja meist nur den Kontrast zw. Hell/Dunkelübergängen - und übertrieben endet das in den bekannten Schärfehalos, besonders bei größeren Radien.
Es bleibt spannend, ich werde Das hier interessiert weiter beobachten - und irgendwann vor der Entscheidung stehen: kann ich mich und meine Arbeit mit einem "Topaz'ten" Bild noch selbst identifizieren, oder schmücken das Bild fremde Lorbeerkränze?

viele Grüße - Ronald
 
Das mit den schemenhaften Vordergrundsternen liegt daran, dass ich das Bild mit Starnet aus dem Bild die Sterne entfernt habe.

Die Galaxie habe ich starkt gestreckt, den Sternlayer habe ich deutlich reduziert. Ich habe auch nur die Galaxie geschärft, die Sterne sind leicht weichgezeichnet, damit die Artefakte von der Extraktion der Sterne nicht so deutlich auffallen.

Mit der LowLight Option würde ich sagen, dass die Details im Bild noch echte Details sind. Der Schärfelevel ist auch nicht so extrem wie mit der normalen Option. Der Hauptunterschied ist das fehlen des Rauschens. Die Schärfe bekomme ich mittlerweile auch in Gimp fast genauso gut hin, aber mit deutlich stärkerem Rauschen.

Falls jemand Lust hat, kann er ja mal ausprobieren, was im Vergleich mit den Tools in PI herauskommt.

CS Joachim
 
Ich habe Topaz Denoise auch einmal getestet und muss sagen, ich bin ziemlich angetan. Da ich mit ungekühlten DSLRs arbeite ist Rauschen immer ein Thema. Auch bei langen Belichtungsreihen von >20h. Als Besispiel habe ich hier mal den Ausschnitt eines Bildes von M101 eingestellt. Einmal so bearbeitet, wie ich es normalerweise mache. Einmal mit Topaz entrauscht.


Ich finde die Wirkung beachtlich. Natürlich sollte man nicht übertreiben sonst gibt es Artefakte und Sterne die sehr unnatürlich aussehen. Was aber die Software noch an Details aus dem Rauschen holt ist beachtlich. Ich habe ja schon mal mit dem neuronalen Filter von Fitswork experimentiert (siehe Beitrag). Topaz macht es, meiner Meinung nach, besser, einfacher und schneller. Zudem habe ich hier keine Bedenken. die Bilder könnten hinterher etwas enthalten, dass nicht von mir stammt. Woher sollte der Algorithmus das auch haben? Ich musste feststellen, dass es desto besser funktioniert, je früher im Workflow man die Entrauschung vornimmt.

Viele Grüße
Michael
 
Zuletzt bearbeitet:
Hallo Michael,

das ist auch meine Erfahrung. Ich wende Denoise AI nach Farbkalibration und Vorstrecken in Siril an. Wenn ich es am Ende des Nachbearbeitungsworkflows anwende, sind die Ergebnisse nicht mehr so überragend.

Hast du auch schon mal vorm Strecken oder sogar noch vor der Farbkallibration probiert?

Bei der LowLight Option bin ich mit dem Schärferegler allerdings nicht mehr besonders zimperlich. Die LowLight Option hat mich letzten Endes von dem Tool überzeugt. Sie liefert sogar ohne Starnet++ bessere Ergebnisse als vorher mit. Mit Starnet++ kann man auch ohne LowLight an Nebel und Galaxien arbeiten. Man muss sich dann für Sterne und Kleinzeug allerdings nochmal einen eigenen Layer generieren, den man schwächer schärft.

CS Joachim
 
Moin,

kann es XISF-Format? Bzw welche Inputformate kann es verarbeiten?
Welche Formate kann es ausgeben?
Ist es eine Software mit eigener GUI oder ein PlugIn? Wenn PlugIn, auch für PI?
Ist die LoLight-Version inkludiert beim normalen AI-Denoise? (ich finde dort nur die Standardversion, ohne LoLight)

Und zuguterletzt, wie schlägt es sich im Vergleich zu MLT (MultiscaleLinearTransform)?
Mit MLT mit vorheriger Wavelet-Zerlegung (und natürlich maskiert!!) bin ich eigtl glücklich. Jetzt bin ich mal gespannt, was Frank da am köcheln ist....
Ich bereite gerade ein Video dazu vor, welches ich morgen oder am Dienstag hier posten werde.
Wenn möglich, versuche bitte einen Vergleich mit MLT zu ziehen.... ?

Viele Grüße,
Okke
 
Lustig,

AI dringt in immer mehr Felder ein, ich finde den Thread ausgesprochen spannend, sowohl was PRO als auch CONTRA angeht, das was Ihr zeigt ist schon interessant, wenn man das Neuronale Netz an Astrofotos trainieren könnte will ich nicht wissen was dann noch geht (oder jemand anderes sich daran macht das speziell zu programmieren). Man denkt immer man habe einen eingefahrenen Weg gefunden, und immer wieder wird man überrascht. Ich warte auch schon auf Franks Video.

CS
Jörg
 
Ja, gar nicht auszudenken was möglich wäre, wenn mal jemand etwas derartiges dediziert für die Astrofotografie entwickeln würde :cool:

@Okke_Dillen Einige Deiner Fragen beantwortet die FAQ des Herstellers.

@joetaiga Nein, vor den Strecken habe ich es noch nicht benutzt. Würde ich auch nicht machen, da ich dann ja von den 32Bit Daten runter müsste. Ich kann mir nicht vorstellen, dass dies einen Vorteil bringt. Und da die kalibrierung der Farben bei mir vor den Strecken kommt (ich nutze den APP) ...

Auf Franks Video bin ich auch schon gespannt. Nachdem ich ein wenig damit herumgespielt und es an verschiedenen Bildern ausprobiert habe, muss ich sagen, dass es in einigen Fällen schon eine große Hilfe sein kann. Die Entrausch Algorithmen die ich bisher verwendet habe (Fitswork, Lightroom, Photoshop) liefern nicht annähernd so gute Ergebnisse. Aber die Software ist sicher auch kein Allheilmittel. Man muss bei den Parametern vorsichtig sein und ich drehe immer eine ordentliche Portion ‚Recover Details‘ mit rein. Sonst wird das Ergebnis in meinen Augen zu künstlich. Aber wie gesagt es hängt stark vom Ausgangsmaterial ab.

Viele Grüße
Michael
 
Zuletzt bearbeitet:
Hm...

>>Ironiemodus EIN<<

Da könnten ja manche vollautomatischen Teleskoproboter doch noch nach Zieleingabe per KI das richtige Foto aus der ESO-Datenbank fischen und endlich die Wunderergebnisse produzieren die sie für ihre Horrorkaufpreise versprechen...

>> Ironiemodus AUS<<

CS
Jörg
 
Hallo,

ich finde das Tool auch ausgesprochen spannend. Mit KI Rauschen entfernen kann ich mir noch gefallen lassen. Aber ich verstehe, wenn man da Bauchschmerzen bekommen kann. Es gibt mittlerweile ja auch KI-Tools, die aus extremst unscharfen Porträts wieder täuschend echte scharfe Gesichter rechnen. In der Zukunft braucht man dann vielleicht auch nur irgendeine Scherbe in den Himmel halten, auf den Auslöser drücken und eine KI macht daraus ein Astrofoto, welches man trotz aller versammelten Bildfehler, Rauschen und Seeing auf den ersten Blick nicht von einem ESO-Foto unterscheiden kann - Bye, bye Takahashi und Co. Wozu dann noch viel für Präzissionsoptik und -mechanik ausgeben? Jeder Dödel wird dann zu einem "Astrophotography of the day" fähig sein. Aber wir werden es nicht verhindern können. Was geht, wird genutzt werden - siehe starnet++.
Da muß ich noch mal drauf zurückkommen. Sind euch schon die Änderungen im Meropenebel um die Plejaden aufgefallen, die ich schon mal gezeigt hatte:
Medienobjekt 40634 betrachten
Gruß

*entfernt*
 
Moin,

an den Reglern dahinter sitzt ja immer noch ein Mensch - an der Stelle wird auch immer die Verantwortung sitzen was ich der KI als Ziel vorgebe. Selbstlernende Systeme haben eben den Vorteil, dass sie aus einer immensen Menge an Erfahrung viel mehr Optionen in kurzer Zeit bewerten, auf Wirksamkeit prüfen und anwenden können wie wir - insofern ist das sicher ambivalent. Aber die Ergebnisse scheinen dahin zu deuten, dass sinnvoll eingesetzt durchaus brauchbare Effekte generiert werden. Dass man es auch mit einem solchen Werkeug übertreiben kann dürfte außer Frage stehen.

CS
Jörg
 
Na ja, nach aktuellem Stand der Technik ist sicherlich nicht zu befürchten, dass die Qualität der Optik in absehbarer Zeit keine Rolle mehr spielt. Topaz kann helfen aus guten Daten das letzte herauszuholen. Aber es gilt trotzdem ‚shit in, shit out‘.
Was mögen die Altvorderen zur digitalen Fotografie gesagt haben. ‚Jetzt hat jeder den Mount Palomar im Garten‘ :geek:

Viele Grüße
Michael
 
Status
Es sind keine weiteren Antworten möglich.
Oben