Jupiter mit CMOS

Status
Es sind keine weiteren Antworten möglich.

Jan_Fremerey

Aktives Mitglied
Bei meinen ersten astrofotografischen Gehversuchen an Mond und Planeten hatte ich in den 1990er Jahren noch einfache Videokameras aus dem Bereich der Überwachungstechnik verwendet. Ab 2003 kamen dann verschiedene CCD-Videokameras zum Einsatz, und seit 2010 arbeite ich vorzugsweise mit der Chameleon von Point Grey, die mir an meinem 10" Schüsselteleskop bisweilen sehr zufriedenstellende Ergebnisse (siehe Website) geliefert hat. Die Chameleon ist mit dem hochauflösenden Pixelraster von 3,75 µm des Kamerachips ICX445 von Sony über eine 2,2x Klee-Barlow bei einem resultierenden Öffnungsverhältnis von f/11 für Aufnahmen an der Beugungsgrenze des Teleskops weitgehend optimal angekoppelt.

Dem Vorteil des vergleichsweise großen Bildformats von 1280x960 Pixeln steht die gegenüber dem heute vielfach verwendeten ICX618 Chip (640x480) relativ geringe Ausleserate von ca. 30 Bildern pro Sekunde gegenüber. Die Geschwindigkeitsbeschränkung hängt offenbar mit dem für CCD-Chips charakteristischen Interline-Transfer-Auslesemechanismus zusammen. Als Alternative bieten sich hier Kameras mit CMOS-Chip an, die einen unter der Bezeichnung "Rolling Shutter" bekannten Auslesemechanismus verwenden. Diese Kameras erlauben bei eingeschränktem Bildformat (ROI) eine erhebliche Steigerung der Bild-Ausleserate gegenüber der Ausleserate bei voller Ausnutzung der Chipfläche.

Für erste Versuche in dieser Richtung habe ich vor einigen Monaten eine ALccd5 von Astrolumina angeschafft. Der darin verwendte CMOS-Chip MT9M001 von der Fa. Micron ermöglicht mit dem vollen Bildformat von 1280x1024 Pixeln ebenfalls hochaufgelöste Aufnahmen. Bei stark eingeschränktem Bildformat von der Größenordnung 100x100 Pixeln konnte ich mit der Kamera bei "Trockenübungen" Bildraten bis über 160/s messen. Wegen mangelhafter Wetterbedingungen hatte ich am Ende der letzte Mars-Saison leider keine Gelegenheit mehr zu entsprechenden "Feldversuchen". Das hatte aber immerhin Tommy Nawratil mit einer solchen Kamera bei Bildraten von 120 fps noch in eindrucksvoller Weise geschafft.

In der vergangenen Nacht hatte ich nun endlich selbst Gelegenheit zu einem - wenn auch kurzen - Jupiter-Ausflug bei Sichtbedingungen, die jedenfalls besser waren als alles, was hier in den letzten Wochen und Monaten zu holen war. Leider zog der Himmel gegen 02:30 MEZ komplett zu, so dass ich weder die beabsichtigten Vergleichsaufnahmen mit der Chameleon, noch erste Bilder vom nicht weit entfernt stehenden Mond erwischen konnte.

Immerhin kann ich mich heute über diese erste Jupiteraufnahme mit der ALccd5 freuen:

Link zur Grafik: http://www.astro-vr.de/Jupiter_121103_0222MEZ_RGB_p40lumi_0-65Kg090_wD1400Gs100_0-65Kg100_PPvMM45GM50BM52.jpg

Die durch die mitgelieferte Software "QGVideo" gegebene Aufnahmetechnik ist ein wenig unflexibel und gewöhnungsbedürftig. Bei gegebener Bildrate kann z.B. die Belichtungszeit nicht beliebig reduziert werden. Zu jeder Bildrate gibt es offenbar eine optimale Belichtungszeit. Der Zusammenhang hat sich mir noch nicht ganz erschlossen.* Mit einer Belichtungszeit von 30 ms hat die Kamera bei den Jupiteraufnahmen in 60 s jeweils ca. 1900 Bilder an mein Laptop ausgeliefert. Aus den mit RGB Filtern von Astronomik aufgenommenen Videos wurden mit Hilfe von AutoStakkert! drei Farbbilder (1,5x Drizzling, 40% Verwendungsrate) gewonnen und mittels Fitswork 3.94 zu einem RGB zusammengesetzt. Abschließend wurde der Kontrast mittels Wavelets (Regler 1 der Detailverstärkung auf 4.00) und einfacher Gauß-Schärfung (Stärke 100) angehoben.

Im Hinblick auf die von mir angestrebte Erhöhung der Bildrate habe ich mit diesen Versuchen gegenüber der Chameleon zunächst noch nichts gewonnen. Bei der offenbar seit kurzer Zeit lieferbaren Nachfolgekamera unter der Bezeichnung ALccd5-II (offenbar baugleich mit QHY5-II), die anscheinend denselben Sensorchip verwendet wie die ältere Version, sollen in dem von mir bei den heutigen Aufnahmen gewählten Bildformat 400x400 dank weiterentwickelter Kameraelektronik und Software Bildraten um die 170 fps erreichbar sein. Das wäre gewiss ein bedeutender Schritt zu Gunsten einer besseren Rauschunterdrückung bei hochaufgelösten Mond- und Planetenaufnahmen.

Gruß, Jan

* Hier gibt es eine Erklärung zu dem Phänomen.
 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan! ;)

Der Bericht ist sehr interessant. Du stellst nicht nur ein wirklich tolles Bild vom Jupiter hier ins Forum, sondern gibst auch noch wertvolle Informationen dazu. Die Infos über die Kameras interessieren mich sehr und viele andere mit Sicherheit auch. In Zukunft werde ich mir eine neue Kamera zulegen, um Aufnahmen vom Mond und den Planeten zu machen. Da sind solche Infos einfach wertvoll. Das du deine Begeisterung mit anderen teilst, finde ich toll! Von daher erstmal ein großes Lob.

Die hohen Bildraten sind eindrucksvoll. Bei der Videoastronomie ist das ja gerade das, was man erreichen möchte. 160fps ist schon ne Hausnummer. Wenn man den Planeten mit einer guten Montierung dann sauber in 100*100pix zentrieren kann, ist das echt super. Die Neue kann die 160fps ja sogar bei 400*400pix! Was mich interessiert ist, welche Leistung der Computer(Laptop) haben muss, damit die Kameras bei den hohen Bildraten problemlos laufen. Ich müsste mir sowieso irgendwan einen neuen Laptop kaufen. Die ALccd5 läuft ja per USB(oder?).

Du hast die Chameleon Point Grey und die ALccd5 erwähnt. Wäre die ALccd5 deiner Meinung nach dann eine echte Alternative? Die kostet so, glaube ich, um die 200€. Sie ist somit deutlich günstiger als vergleichbare TIS-Kameras. Sie ist also vielleicht wirklich eine echte Alternative, besonders für den Mond.


Für das tolle Bild und die Infos dazu gibts von mir 4*. ;)


Viele Grüße,
Christian

 
Hallo Jan, hallo Christian, hallo Planetenfreunde,
beide Beiträge sind auch für mich hochinteressant.
Jans Bild besonders, weil er Jupiter ziemlich genau so erwischt hat, wie ich bei meinem Versuch, den ich hier hereingetellt habe.
Was mich noch interessieren würde, Jan, welche Vorteile bringt dir das "drizzeln" bei der Bildbearbeitung?
Viele Grüße und CS
Martin
 
Zitat von Christian_P:
Du stellst nicht nur ein wirklich tolles Bild vom Jupiter hier ins Forum, sondern gibst auch noch wertvolle Informationen dazu.
Hallo Christian,

Dank Dir erstmal für die positive Bewertung. Im Vergleich zu dem, was mein 10" System herzugeben in der Lage ist, und zu dem, was man hier im Forum an C9-Aufnahmen zu sehen bekommt, würde ich selbst die Qualität dieses Bildes nicht allzu hoch bewerten. Immerhin freue ich mich, dass die Bedingungen hier endlich einmal so gut waren, dass ich meine schon länger im Schrank wartende ALccd erstmals am Himmel in Betrieb nehmen konnte. Da ich diese Kamera gezielt mit der Absicht angeschafft habe, die bei der Chameleon systembedingt gegebene Grenze von 30 fps zu durchbrechen, haben mich natürlich die technischen Aspekte der neuen Kamera besonders interessiert, und da bietet es sich an, dass man mit den ersten Bildern auch über die ersten Erfahrungen und Gedanken im Zusammenhang mit dem Objekt berichtet. Ich freue mich, dass das offensichtlich auch Deine Aufmerksamkeit geweckt hat.

Zitat von Christian_P:
Wenn man den Planeten mit einer guten Montierung dann sauber in 100*100pix zentrieren kann, ...
Das geht eben mit meiner Ausrüstung leider nicht. Die GPDX ist hier nur mit einfacher RA-Nachführung ausgestattet.

Zitat von Christian_P:
Was mich interessiert ist, welche Leistung der Computer(Laptop) haben muss, damit die Kameras bei den hohen Bildraten problemlos laufen. Ich müsste mir sowieso irgendwan einen neuen Laptop kaufen. Die ALccd5 läuft ja per USB(oder?).
Ich besitze auch nur ein älteres Laptop, welches allerdings schon mit USB-2 Schnittstellen ausgestattet ist. Die ALccd läuft wie auch die Chameleon in der Tat über USB, das erleichtert wegen der integrierten Stromversorgung die Handhabung am Laptop entschieden gegenüber den von mir zuvor benutzten CCD-Kameras mit 1394-Schnittstelle und externer Stromversorgung. Bezüglich der Datenübertragungsrate zum Laptop mache ich mir keine wirklichen Sorgen, da die gegenwärtige ALccd5 nominell 24 Mpx/s und die neue ALccd5-II 39 Mpx/s ausgibt. Das entspricht im Monochrombetrieb mit 8 Bit Farbtiefe gerade 24 bzw. 39 MB/s und sollte angesichts auch der praktischen USB-Bandbreiten kein Problem darstellen.

Zitat von Christian_P:
Du hast die Chameleon Point Grey und die ALccd5 erwähnt. Wäre die ALccd5 deiner Meinung nach dann eine echte Alternative?
Das erwarte ich jedenfalls von der neuen ALccd5-II, denn die bietet neben dem noch etwas größeren Bildformat von 1280x1024 Pixeln eben vor allem diese sensationell hohen Bildraten. Einen gewissen Nachteil sehe ich in der gegenüber FireCapture etwas spartanisch ausgestatteten Aufnahmesoftware QGVideo. Vielleicht schreibt ja Torsten Edelmann eines Tages noch ein passendes Patch zu seinem FireCapture.

Habe heute an anderer Stelle noch ein wenig über die Auswirkung der hohen Bildausleseraten auf die Farbdifferenzierung in der Planetenfotografie spekuliert, siehe hier .

Auch wenn ich persönlich von diesem Bewertungssystem nicht soviel halte, danke ich Dir jedenfalls für Deine freundlichen Sternchen.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan,

das ist in der Tat eine interessante Diskussion, welche sich hier auf tut. Da hätte ich auch gleich eine Frage dazu: Bei Belichtungszeiten um die 30ms kommst du ja zwangsläufig nur unwesentlich über die 30fps. Was erhoffst du dir da von Ausleseraten >150fps? Sind Belichtungszeiten im einstelligen Millisekundenbereich ausreichend, um ein Signal zu generieren, welches über dem Ausleserauschen und dem thermischen Rauschen (die restlichen Rauschbeiträge ignorieren wir jetzt einfach mal) der Kamera liegt (Kühlung, Quanteneffitienz)? Das Shotnoise bekommst du über die Anzahl der gestackten Bilder in den Griff (notwendige Gesamtbelichtungszeit), aber wie ist das mit dem Rest, und in wie weit relativieren sich dann solche Ausleseraten? Da interessiert mich deine Meinung/Erfahrung, da ich vor ähnlichen Problemen des "lucky imaging" stehe, allerdings im Deep-sky-Bereich...

Danke.

Grüße Markus
 
Hallo Martin,

Habe Deinen Beitrag gesehen, werde dort noch kommentieren. Die in Autostakkert verfügbare 1,5x Nachvergrößerung mit "Drizzle", Helligkeitsanpassung und Nachschärfung arbeitet nach meiner Erfahrung recht ordentlich, und ich benutze sie gerne, um einen angenehmen Abbildungsmaßstab auf dem Bildschirm zu bekommen.

Viele Planetenfotografen wenden mit demselben Ziel gleich bei der Aufnahme eine entsprechende optische Nachvergrößerung mittels Barlowlinse oder Okular-Projektion an. Damit verschenkt man nach meiner Auffassung oftmals unnötigerweise nur Belichtungszeit ohne etwas an Detailauflösung zu gewinnen. Über das Thema ist hier im Forum an verschiedenen Stellen schon heftig diskutiert worden.

Bei Planeten benutze ich im Rahmen der Bildbearbeitung - je nach der im wesentlichen Seeing-abhängigen Qualität des Aufnahmematerials - Nachvergrößerungen bis mindestens zu einem Faktor 2, siehe beispielsweise hier: Saturn mit 2-facher und Mars mit 2,4-facher Nachvergrößerung.

Gruß, Jan
 
Zitat von etalon:
Bei Belichtungszeiten um die 30ms kommst du ja zwangsläufig nur unwesentlich über die 30fps.
Hallo Markus,

mit dieser Bemerkung hast Du natürlich zunächst mal völlig Recht. Die 30 ms habe ich aber in diesem Fall nur deshalb gewählt, um eine akzeptable Bildausleserate zu bekommen, die war nämlich bei den zuvor eingestellten 22 ms und kürzer kurioserweise deutlich geringer als 30 fps. Also habe ich 30 ms gewählt und bin mit dem Gain heruntergegangen. Bei der mit der Kamera gelieferten Auslesesoftware gibt es eine nicht so leicht nachvollziebare Verknüpfung zwischen Belichtungszeit und Ausleserate. Bei der gerade erschienenen Nachfolgekamera ALccd5-II soll diese Verknüpfung nicht mehr bestehen, so dass sehr viel kürzere Belichtungszeiten und entsprechende Ausleseraten möglich werden - so lauten jedenfalls die vorläufigen Berichte über Praxis-Tests.

Bei der Belichtungszeit orientiere ich mich gerne an eigenen Saturnaufnahmen mit der DMK21 (ICX098), an meinem 6" f/20 Faltrefraktor. Dort konnte ich bei einer Belichtungszeit von 1/23 s den mit 12,9 mag schon recht lichtschwachen Mond Mimas abbilden. Jupiter steht unter viermal hellerer Beleuchtung als Saturn, und mit 5,2 µm Pixelraster erreiche ich die Auflösungsgrenze des Teleskops schon bei f/14. Unterm Strich sollten also selbst mit der älteren DMK am Jupiter Belichtungszeiten deutlich unterhalb von 10 ms möglich sein.

Hochaufgelöste Deep-Sky-Aufnahmen mit kurzzeitbelichteten Videos stehen auch bei mir auf dem Programm, hier z.B. Testaufnahmen von Theta^1 Orionis (Trapez) und Epsilon Arietis.

Wie ich Deinem "Logo" entnehme, hast auch Du Dir ein offenes Spiegelteleskop gebaut. Das sieht handwerklich sehr gediegen aus! Deine Beschreibung werde ich mir mal in Ruhe anschauen. Jedenfalls habe ich mich sehr über diese kleine "Entdeckung" gefreut.

Gruß, Jan
 
Hallo Jan,

vielen Dank für deine Erläuterung. Deine Deep-Sky-Versuche sind absolut professionell und sehr interessant. Da mich Doppelsterne im Moment nicht so wirklich reizen, habe ich mir vorgenommen, mich ein wenig auf high redshift Quasarjagd zu begeben. Außerdem will ich mich dem Zentrum unserer Milchstraße im NIR etwas widmen. Mit meinem 10" RC erreiche ich die theoretische Auflösungsgrenze bei 800nm mit 10m Brennweite (f/40). Das hört sich im ersten Moment fürchterlich an, aber bei stellaren Objekten (ich weiß nicht, ob man da die Monde von Saturn schon dazu zählen darf) ist das Öffnungsverhältnis unwichtig. Da zählt nur die lichtsammelnde Fläche und die Belichtungszeit, was deren Erreichbarkeit betrifft. Außerdem habe ich deutlich größere Pixel, so dass sich das weiter relativiert und mit deiner Kamera bei 5,2um Pixeln und f/13 (gerechnet auch für 800nm) vergleichbar wird. Bleiben noch die restlichen Unterschiede der Kameras (QE, etc.). Allerdings bin ich überrascht, dass du solch kurze Belichtungszeiten an den Doppelsternen realisieren konntest. Ich kenne jetzt zwar die Helligkeit der von dir abgelichteten Sterne nicht, aber das lässt hoffen. Meine Quasare bewegen sich wohl irgend wo zwischen mag15-20. Mal sehen, wie lange ich da belichten muss, um mit dem Signal über das thermische- und Ausleserauschen zu kommen (im Einzelframe). Im schlimmsten Fall so lange, dass mir das Seeing wieder einen Strich durch die Rechnung macht... ;)

Mal sehen, was ich außer den Quasaren noch an hochaufgelösten DS-Objekten machen kann. Vielleicht kann man ein paar Einsteinbögen herausarbeiten, wenn man das Seeing wirkungsvoll unterdrücken kann? Mal sehen... Wo wir gerade beim Seeing sind: Was kannst du aus deiner Erfahrung über die durchschnittliche Frequenz des Seeings in DE sagen? Ich weiß wohl (und auch wie), dass man t0 berechnen kann, aber was sind denn deine Erfahrungswerte, was die Belichtungszeiten angeht? Belichtest du generell so kurz, wie es das S/N zulässt, oder sagst du, im Schnitt ändert sich das Seeing alle x ms, daher belichte ich zu Gunsten des S/N pro Bild etwa x ms und sortiere halt ein paar Frames mehr aus? Da ich in dieser Richtung noch überhaupt keine praktische Erfahrung habe, würde es mich mal interessieren, was ein eingefleischter Planetenfotograf da so zu berichten hat... ;)

Grüße Markus


Ach ja, mein "offenes" Spiegelteleskop ist ein Reisedobson, und wird nur visuell genutzt. Dem muss ich noch ein paar kleine Änderungen verpassen, da im Betrieb noch ein paar kleine Unzulänglichkeiten aufgefallen sind. Grundsätzlich funktioniert er aber einwandfrei...
 
Zuletzt von einem Moderator bearbeitet:
Hallo Markus,

schön, dass Du ein wenig Deine DS-Pläne ansprichst. Quasare: Hätte nicht gedacht, dass man da als Amateur mit kleiner Öffnung überhaupt realistische Chancen hat. Mit größeren Pixeln (größerer Rauschabstand?) und im NIR sind natürlich kleinere "Blenden" angesagt - also f/40 durchaus plausibel.

Epsilon Arietis ist mit mag 5,2/5,5 schon sehr hell, da ging es mir in erster Linie um die Distanzmessung und die Ermittlung der Brennweite meines Teleskops im Hinblick auf anderweitige Messungen. Dagegen und auch im Vergleich mit Mimas sind die von Dir anvisierten Objekte mit < 15 mag bei Kurzzeitbelichtung schon recht ehrgeizig. Ich möchte mich eigentlich eher an Kugelsternhaufen und anderen bequemer zu erreichenden Objekten versuchen, dabei geht es mir - auch im Hinblick auf die Reichweite - zunächst um bestmögliche Ortsauflösung. Die Abbildung von Mimas mit seinen 400 km Durchmesser in einer Entfernung von über 1 Mrd km ist mit meinem Teleskop jedenfalls nicht größer als ein Airyscheibchen, also insoweit nicht unterscheidbar von stellaren Objekten.

Zitat von etalon:
... würde es mich mal interessieren, was ein eingefleischter Planetenfotograf da so zu berichten hat...
Der weiß in diesem Fall gewiss viel weniger als man vielleicht von ihm erwartet. Aus meiner Sicht macht eine Verkürzung der Belichtungszeit bzw. eine Erhöhung der Bildrate nur Sinn, solange sich zeitlich aufeinanderfolgende Frames noch signifikant voneinander unterscheiden. Dazu habe ich hier (weiter unten) eine Zeitlupenanimation aus einem Marsvideo vorgestellt. Diese macht deutlich, dass da bei 30 fps noch reichlich Platz für Zwischenbilder vorhanden ist. Oftmals ist das Seeing sehr viel hochfrequenter als in dieser Aufnahme, so dass man nicht einmal ordentlich fokussieren kann. Am schlimmsten ist, vorzugsweise bei größeren Teleskopen, die Mehrfachabbildung des Zielobjekts (Geisterbilder). Die bekommt man auch mit beliebig kurzen Belichtungszeiten nicht aufgetrennt, weil sie aufgrund entsprechender "Knicke" in der Wellenfront wirklich gleichzeitig entstehen. Darüber hatte ich gelegentlich schon berichtet [1,2].

Wenn Dein offenes Reiseteleskop speziell für den visuellen Einsatz gedacht ist, müssen ja an die Verwindungssteifigkeit keine so extremen Anforderungen gestellt werden. Da will man doch vermutlich in erster Linie - mit wenig Gewicht im Rucksack - den unmittelbaren Anblick der Sterne am Urlaubsort vor wirklich schwarzem Hintergrund genießen. Dein Logo aus abgelegenem Gelände bringt die Sache auf den Punkt!

Gruß, Jan
 
Zitat von Jan_Fremerey:
Unterm Strich sollten also selbst mit der älteren DMK am Jupiter Belichtungszeiten deutlich unterhalb von 10 ms möglich sein.
Hallo Markus,

eben sehe ich hier einen Jupiter, der mit der neuen DMK21/681 offenbar bei f/24 und 2,6 ms Belichtungszeit aufgenommen wurde. Mit einer Bildrate um die 200 fps (das sollte bei entsprechendem ROI mit der neuen ALccd5-II gehen) könnte man vielleicht schon eine flüssige Zeitlupendarstellung der Luftbewegung (Seeing) hinbekommen!

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
So, jetzt hab ich endlich wieder Zeit zu antworten.
Danke dir Jan, für die Erklärungen. Mal unabhängig von allen Mega-Bildern hier im Forum und anderswo, finde ich deins wirklich echt gut. Da du die ALccd5 nutzt und damit Planeten aufnimmst, haben mich deine Infos sehr interessiert. Die Alccd5II ist schon lieferbar?

Die GPDX ist sicherlich nicht schlecht. Wenn die richtig eingescheinert ist, dann müsste der Planet recht lange stabil auf dem Chip bleiben. Ich kann seit Neuestem in beiden Achsen steuern, dass ist für mich ein ganz ungewohnter Luxus. :)

Was ich noch fragen wollte: Welches Öffnungsverhältnis muss man bei der Alccd5 am Mond bzw. an den Planeten nutzen? Ich habe gelesen, dass du eher etwas weniger Brennweite nimmst, um die Belichtungszeit zu verringern. An meinem f/10 4Zöller nutze ich mit der ToUcam zurzeit eine 2-fache Barlow. Sie verlängert aber aufgrund des höheren Abstandes des Chips ca. 2.5-fach.


Viele Grüße
 
Hallo Christian,

vielen Dank, ich freue mich, wenn Dir die Aufnahme gefällt! Für mich stand in dem Moment natürlich der erste Test einer CMOS-Kamera mit den dazugehörigen Eindrücken im Vordergrund. Die ALccd5-II ist offenbar auch schon lieferbar, schau mal bei den einschlägigen Anbietern.

Die GPDX richte ich routinemäßig nur mit dem Polsucher aus, weiß allerdings nicht, wie genau man sich auf den verlassen kann. Meistens wandert das Objekt in DEC aus, und dafür habe ich keinen Motor.

Zur Brennweitenanpassung der Kamera kann ich sagen, dass ich einige meiner besten Mond- und Planetenaufnahmen mit unterschiedlichen Teleskopen und Kameras bei Ankopplungen im Bereich 2,4*p < f/D < 2,9*p gewonnen habe, wobei f/D den Blendenwert, also das inverse Öffnungsverhältnis, und p den Pixelabstand des Kamerachips in µm bedeuten. An meinem f/5-Spiegel arbeite ich z.Z. mit der Chameleon (3,75 µm) und einer 2,2x Klee-Barlow bei f/11, damit komme ich auf f/D = 2,9*p. Die ALccd5 (5,2 µm) kopple ich über eine 2,8x Klee-Barlow an und liege damit bei f/14 bzw. f/D = 2,7*p.

Die hier genannten Erfahrungswerte gelten für Monochrom-Kameras und optimale Sichtbedingungen. Bei schlechteren Bedingungen lässt die Bildauflösung nach, da kommt man dann auch mit f/D = 2*p hin.

Wenn Deine ToU einen Farbchip mit Bayer-Maske und 5,6 µm Pixelraster enthält, sollte f/20 im Hinblick auf die etwas geringere Ortsauflösung des maskierten Chips ein guter Ankopplungswert sein, und f/25 ist m.E. völlig ok.

Gruß, Jan
 
Hallo Jan,

Quasare sind gar nicht so unerreichbar. Das ist nur eine Frage der Belichtungszeit, und mit heutigen CCD-Kameras sind bei langbelichteten Aufnahmen Grenzgrößen >mag20 relativ einfach erreichbar (allerdings im Intergrallicht). Bei den hoch rotverschobenen Modellen wird es zwar mit zunehmender Rotverschiebung immer schwieriger, da das verwertbare Spektrum beginnend mit der Lymann a Linie erst weit im NIR beginnt, und da die QE der siliziumbasierenden CCDs nur noch relativ schlecht ist (>900nm), aber ich will es wenigstens mal versuchen. Was mir bei dem Unterfangen mehr Sorge bereitet ist, ob auf langbelichteten, vom Seeing verschmierten Aufnahmen die Quasare von Vordergrundsternen separiert werden können (Auflösung). Daher würde ich gerne "lucky imaging" verwenden, um eine vom Seeing zumindest weitgehend bereinigte Aufnahme zu erhalten. Und wer weiß, vielleicht lassen sich dann auch Strukturen wie z. B. Einsteinbögen auflösen? Das große Hindernis bei diesen low light Geschichten ist in diesem Fall aber nicht eine hohe Framerate, denn da ändert sich im Vergleich zu einem rotierenden Planeten nix, sondern bei den notwendigerweise kurzen Belichtungszeiten genügend Signal zu bekommen, um über das Rauschen der Kamera zu kommen. Nun, wir werden sehen...

Jupiter ist zwar sehr hell, aber es erstaunt mich trotzdem, dass bei f/24 und 2,3ms Belichtungen schon ausreichend Signal vorhanden ist. Das lässt mich hoffen, dass mein Unterfangen nicht ganz dem Untergang geweiht ist. Im schlimmsten Fall muss ich mir mal nen 80cm Spiegel an einer Sternwarte ausleihen. Der Reiz liegt für mich allerdings darin, das mit Amateurmitteln zu schaffen...

Solltest du noch Ideen für interessante Deep Sky Objekte haben, welche mit Hilfe des "lucky imaging" aufgelöst werden können, bin ich ganz Ohr... ;)

Kugelsternhaufen stehen auch auf meiner Liste, allerdings die möglichst weit entfernten und unbekannten...


Grüße Markus
 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan,

danke fürs Teilen. Nicht nur für die Aufnahme. Auch für die Hintergründe.

Beste Grüße,
Gerrit
 
Hallo Gerrit,

Dank Dir für die freundliche Rückmeldung! - Ich war froh, Deinen Beitrag mit dem kurz und schnell belichteten Jupiter zu finden und diesen hier als Beispiel zitieren zu können. Schade, dass bei Dir die Kameraauslesung offenbar nicht ganz sauber gearbeitet hat. Bin gespannt auf weitere Ergebnisse von Dir.

Gruß, Jan
 
Hallo Jan,

ich denke die Kameraauslesung wäre ok gewesen, wenn ich mich nicht mit der Beta von FireCapter "gespielt" hätte. Das soll jetzt aber nichst gegen FireCapture meinen. Im Gegenteil, die Software ist ne starke Leistung.

In meinen Bildern gibts noch einiges zu verbessern. Was aber an der Stabilität der Kollimation liegt. Ich konnte beispieslweise feststelle, daß das Auszugsrohr doch noch eine Idee verkippt war. Wird aber beim nächsten Versuch gelöst.

Auf sagenhafte 200 FPS wird man wohl mit einer TIS CCD nicht kommen.
Zumindest nicht mit der , die ich einsetze. Ich bin mir aber nicht sicher, ob das wirklich was bringt, denn immerhin kommt sehr wenig Signalleistung auf den Chip wenn man um 2,7 mm bei F/24 arbeitet. Und der 618er Chip ist ja schon sehr empfindlich.
Grüße,
Gerrit
 
Zuletzt von einem Moderator bearbeitet:
Zitat von MountyPython:
Ich bin mir aber nicht sicher, ob das wirklich was bringt, denn immerhin kommt sehr wenig Signalleistung auf den Chip wenn man um 2,7 mm bei F/24 arbeitet.
Hallo Gerrit,

mit den Einstellungen hast Du aber noch reichlich "Luft". Du kannst nämlich ohne Verlust an Bildauflösung mit einem 5,6 µm Pixelraster getrost bei f/15 arbeiten, und für 200 fps - wenn denn die Kamera das hergibt - wären auch noch bis 5 ms Belichtungszeit drin, insgesamt also ein Signalgewinn um den Faktor 5, das sollte auch für weniger empfindliche Chips reichen.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Mal 'ne 'philosophische' Frage an die Video-Experten hier.

Der Sinn der Videotechnik besteht doch darin, Seeing-Effekte 'einzufrieren'. Also braucht man möglichst kurze Belichtungszeit pro Frame in der Größenordnung von Millisekunden. Außerdem braucht man insgesamt 1000 Frames oder auch mehr, weil ein erheblicher Teil als Ausschuss durchfällt. Je nachdem ob die Kamera mit 120 oder mit 30 fps arbeitet, braucht es dann entweder 8 oder 33 Sekunden, um diese 1000 Frames zu sammeln. Klar, 8 Sekunden ist weniger als 33 Sekunden, aber solange das Seeing in beiden Fällen denselben Charakter hat, wovon ich hier mal ausgehe, ist es doch völlig egal, ob diese 1000 Frames zu je 5 ms sich über 8 Sekunden oder über 33 Sekunden verteilen, oder was meint ihr dazu? Das Argument von schnell rotierenden Planeten wie Jupiter, welches eine gewisse zeitliche Bündelung der Aufnahmen erfordert, wollen wir dabei mal ausklammern. Betrachtet einfach mal nur Aufnahmen am Mars, oder meinetwegen auch am Mond. Mir fällt eigentlich kein Grund ein, warum eine wesentlich höhere Framerate a priori weniger Ausschuss produzieren sollte. Natürlich kann die Belichtungszeit nicht größer als der Kehrwert der Framerate sein. Davon abgesehen erscheint mir die gewählte Framerate eher sekundär. Die Belichtungszeit ist nach meinem Verständnis der Parameter, auf den es ankommt.

Naive Betrachtungen von einem Sternfreund, der bislang nur mit verschiedenen DMK-Modellen am C14 experimentiert hat ...

Mit freundlichen Grüßen,
Peter



Mit freundlichen Grüßen
 
Hallo Peter,

solange das Seeing in beiden Fällen denselben Charakter hat, wovon ich hier mal ausgehe, ist es doch völlig egal, ob diese 1000 Frames zu je 5 ms sich über 8 Sekunden oder über 33 Sekunden verteilen, oder was meint ihr dazu?

ich habe im Durchschnitt sehr wechselndes Seeing. Innerhalb von 30 Sekunden sind da mehrmals 2-3 Sekunden lang scharfe, unverzerrte Bilder, dazwischen aber entweder unscharfe oder unscharfe und verzerrte Bilder. Würde ich jetzt nur 8 Sekunden belichten, hätte ich grad 1x so ne scharfe Sequenz, aber meist blos Schrott.

Das hängt eventuell mit meinem lokalen Seeing vom Balkon am Rande der Stadt zusammen, aber auch an 2 weiteren Standorten außerhalb habe ich die selbe Erfahrung gemacht. Hausgemachtes "Beobachterseeing" kann ich dabei eigentlich ausschließen, denn ich bin üblicherweise 4 Meter mit dem Tisch und dem daraufstehenden Laptop vom Teleskop weg und drehe das Filterrad per Motor vom Tisch aus. Und mein 8" Newton ist mehrere Stunden ausgekühlt...

Ich wundere mich daher schon ein bischen, wenn ich hier im Forum lese, daß andere Beobachter 40%, 50% oder noch mehr von ihren Bildern verwenden. Ich kann meist nur zwischen 10 und 25% verwenden.


 
Hallo Peter,

ich würde mich weiß Gott jetzt nicht als Videoexperten bezeichnen, komme ich doch eher aus der normalen Astrofotografie, aber mit dem was du schreibst bin ich bei den von dir geschilderten Einschränkungen gleicher Meinung. Möglichst kurze Belichtunszeiten erhöhen die Wahrscheinlichkeit, ein vom Seeing nicht beinträchtigtes Bild zu erhalten, und je nach Frequenz, mit der sich das Seeing ändert, kann man mit entsprechend kurz belichteten Aufnahmen auch mehrere gute Bilder hinter einander erhalten, bis sich die Atmosphäre wieder ändert. Dabei limitiert die Belichtungszeit nach unten nur das Ausleserauschen der Kamera und die QE des CCD. Die anderen Rauschbeiträge fallen bei solch kurzen Belichtungszeiten nicht mehr wirklich ins Gewicht. Das heißt aber auch, dass bei zunehmend kürzeren Belichtungszeiten entsprechend mehr Bilder aufsummiert werden müssen, um im resultierenden Summenbild ein entsprechendes S/N zu erhalten. Ursache dafür ist das "shotnoise" welches in der statistischen Verteilung des Photonenflusses begründet ist.

Einzig sich zeitlich schnell verändernde Zielobjekte, wie manche Planeten oder auch die Sonnenoberfläche im Ha-Licht, sind der Grund, warum Planetenfotografen sich eine möglichst hohe Framerate wünschen, um in kurzer Zeit eine entsprechende Anzahl an verwertbaren Bildern zu erhalten, und damit dann im Summenbild über ein ausreichendes S/N zu verfügen, ohne dass die Bewegungsunschärfe die Details wieder verwischt...

Grüße Markus
 
Hallo zusammen,

sehr interessante Sache!
Danke Jan für technischen Einblicke!

Zum Thema Seeing gibt es eine super Webseite, wo auch die Hintergründe zum "lucky imaging" beschrieben sind:
----> klick

Um hier weiter zu kommen, sehe ich nur einen Weg: Seeing am eigenen Standort messen!

Damit kann man zB die Wahrscheinlichkeit für ein "gutes" Bild bestimmen. Nur soviel, eine große Optik muss unbedingt an einen Top Standort in Sachen Seeing. Ich sehe das visuell immer wieder, zur Zeit mit 71cm und hoffentlich bald mit 85cm.
Leider ist das Auge nicht schnell genug um innerhalb der Coherence-Zeit zu reagieren. Aber selbst dann läge die Chance auf einen sauberen Frame bei bei 71cm und sehr guten 1" Seeing bei nur 1:500.

Vielleicht kann einer von Euch das Seeing einmal messen?
Ich habe es ----> hier mehrfach erfolgreich versucht.
Bei Fragen zum Programm: immer gern!

ps. Ich teile Peters Meinung zu den Wahrscheinlichkeiten. Das ist unabhängig von der Ausleserate. Wenn man die speziellen Pleneten-Effekte (Drehung) aussen vorlässt, hat man einfach nur schneller die Kiste voll...

Viele Grüße
Kai
 
Zitat von P_E_T_E_R:
Der Sinn der Videotechnik besteht doch darin, Seeing-Effekte 'einzufrieren'.
Hallo Peter,

das ist gewiss ein ganz entscheidender Faktor, aber andererseits auch nur ein Teilaspekt der Sache. Wesentlich ist doch insbesondere auch das Ziel einer möglichst hohen Rauschunterdrückung, und die steigt im Prinzip mit der Wurzel aus der Anzahl der Videoframes im Stack.

Ein weiterer Aspekt, den wir gerade auch an anderen Stellen [1,2] diskutieren, ist der Einfluss der Farbtiefe der einzelnen Summenbilder auf die Farbdifferenzierung der resultierenden RGB-Bilder. Diese wirkt sich vermutlich in besonderer Weise gerade bei der Wiedergabe feiner Farbnuancen in der Jupiteratmosphäre aus.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo Kai,

Die von Dir genannte Methode zur quantitativen Bewertung des Seeings und die Beschreibung Deiner eigenen Versuche erscheinen mir sehr interessant, nicht zuletzt auch im Hinblick auf meine Erfahrungen und Versuche in dieser Richtung.

Bei dem gelegentlichen Einsatz einer Mrotzek-Blende zur Fokuseinstellung der Kamera war mir aufgefallen, dass sich die Balken des von der Blende erzeugten Kreuzes im Rhythmus der Luftbewegung gegeneinander verschieben. Das brachte mich auf die Idee, ob man aus dieser Bewegung vielleicht eine "objektive" Bewertung des Seeings extrahieren könnte. Ich habe die Erscheinung verschiedentlich auch aufgezeichnet, die Daten liegen aber irgendwo zwischen anderen Videos aus der jeweiligen "Session" versteckt in meinem DVD-Archiv, daher kann ich hier im Moment kein Beispiel zeigen. Die von Dir beschriebene Zweiloch-Blende ist vermutlich für die Auswerung noch besser geeignet, allerdings auch lichtschwächer als die Mrotzek-Blende.

Das Thema ist an dieser Stelle vielleicht schon ein wenig "off topic". Deswegen hier nur kurz noch eine Antwort auf Deine folgende Bemerkung:
Zitat von fraxinus:
Ich teile Peters Meinung zu den Wahrscheinlichkeiten. Das ist unabhängig von der Ausleserate.
Gerade wenn - wie es auch unsere "Fee" beschreibt - die Wahrscheinlichkeit des Empfangs guter Frames an unserem Standort bisweilen relativ gering ist, müssen wir doch in der verfügbaren Zeit möglichst viele Frames einsammeln, um aus denen eine möglichst große Anzahl von brauchbaren Frames herauszufischen. Da erscheint mir eine Kamera mit hoher Ausleserate durchaus nützlich.

Gruß, Jan
 
Hallo Jan,

bezogen auf Deine Frage in meinem Jupiter-Thread vom 23. kann ich nur folgendes sagen.

Ich beschäftige mich seit längerer Zeit mit der Gradwanderung zwischen Aufnahmegeschwindigkeit und Verstärkung. Da gibt es sicherlich theoretische Lösungen aber in der Praxis ist es dann doch anderes. Eine echte Antwort habe ich jedoch nicht gefunden und ich glaube fast es gibt keine. Genau an dieser Stelle hört das "Kochbuch" auf und man muss auf Erfahrung und Gefühl bauen.

Speziell am 23. habe ich mit Geschwindikeiten um 60FPS im roten bis ca. 50 FPS im blauen gearbeitet. Aufgrund der guten Luft habe ich je nach Video Verwendungsraten bis 40% nutzen können.
Bei sehr kurzen Belichtungszeiten und hoher Verstärkung habe ich bisher fast immer nur mäßige Ergebnisse erzielt, auch am 23.! Ich probiere immer gerne aus (systematisch) wenn Zeit da ist :)

Mein persönliches Fazit (wohlgemerkt ich habe im Bereich Planeten nur wenig Erfahrung) zum Thema Bildrate:

Wenn die Luft es erlaubt so wenig Speed wie möglich weil hohe Verstärkung durch rauschen die kleinen Details killt.
Bei schlechteren Bedingungen, also Bilder zur Dokumentation, habe ich die Verstärkung bis zum Maximum der Linearität der Kamera gebracht und danach die Bildrate angepasst, welche sich dann je nach Kanal zwischen 70 und 90 FPS bewegt.

Die 90s mit Derotation ist ein schöner Kompromiss wo man im Durchschnitt die Basis-Situation meistern kann vor Allem im Bezug auf - Mehr Bilder (durch Aufnahmedauer) - kleinere Bildrate -> geringere Verstärkung.

Ich möchte mit meinen Aussagen die maximale Bildrate meiner Basler nicht verteufeln aber ein echter Fortschritt wäre doppelte Bildrate bei gleichem Rauschpegel :))

Ein gutes Beispiel liefert ja unser Kollege aus England, der mit Winjupos derotiert und Einzelkanäle teilweise mehr als 5min aufnimmt um satte Farben und Details zu bekommen.

Grüße
Waldemar
 
Zuletzt von einem Moderator bearbeitet:
Zitat von Waldemar:
Speziell am 23. habe ich mit Geschwindikeiten um 60FPS im roten bis ca. 50 FPS im blauen gearbeitet. Aufgrund der guten Luft habe ich je nach Video Verwendungsraten bis 40% nutzen können.
Hallo Waldemar,

vielen Dank für die Angabe Deiner Aufnahmedaten. Demnach hattest Du also jeweils bis zu 2000 Frames von der besseren Sorte in den Stacks, das ist schon recht komfortabel für die Weiterverarbeitung.

Interessant finde ich auch Deine folgenden Hinweise:
Zitat von Waldemar:
... ein echter Fortschritt wäre doppelte Bildrate bei gleichem Rauschpegel
und
Zitat von Waldemar:
Ein gutes Beispiel liefert ja unser Kollege aus England, der mit Winjupos derotiert und Einzelkanäle teilweise mehr als 5min aufnimmt um satte Farben und Details zu bekommen.
Damit bestätigst Du im wesentlichen die Vermutung, dass es nicht unnütz ist, in der verfügbaren Zeit - und die ist ja speziell bei Jupiter begrenzt - eine möglichst hohe Anzahl von Bildern einzusammeln. Die höchste Anzahl erreicht man, wenn bei der Aufnahme keine zeitlichen Lücken entstehen. Bei 5 ms Belichtungszeit sollte man also - wenn die Kamera es wirklich kann (d.h. ohne Artefakte!) - möglichst mit 200 fps aufnehmen. Ob man dann doch mit reduziertem Gain und 100x 10ms oder gar 50x 20ms zu besseren Ergebnissen kommt, das muss die Praxis zeigen. Die gegenwärtigen Kameras haben offenbar, wenn ich auch die Berichte anderer Kollegen anschaue, bei > 100 fps bisweilen noch Probleme mit der Bildqualität.

Gruß, Jan
 
Hallo Jan,

...dass sich die Balken des von der Blende erzeugten Kreuzes im Rhythmus der Luftbewegung gegeneinander verschieben.
Genau das ist das Prinzip. Vorteil: Wind oder Vibrationen des Teleskops fallen bei der Messung heraus.

Die von Dir beschriebene Zweiloch-Blende ist vermutlich für die Auswerung noch besser geeignet, allerdings auch lichtschwächer als die Mrotzek-Blende.
Das Programm braucht exakt runde Airy-Disks die sich auf mehrere Pixel verteilen für eine genaue Positionsbestimmung. Ich lichte den Polarstern mit 52mm Löchern und 2.18m Brennweite ab. Macht f/42. Belichtung mit der Toucam 740K: 13ms. Etwas kürzer wäre aber besser.

Zu den Wahrscheinlichkeiten:
Da erscheint mir eine Kamera mit hoher Ausleserate durchaus nützlich.
Ja, natürlich! Die Unabhängigkeit des Zeitpunktes erlaubt auch die "nahtlose" Verwendung von Frames.
Das ist dann eine Frage der Effizienz. Wenn man Tausende von Frames irgendwie handeln kann steigt die Ausbeute und damit die Gesamtqualität.

Viele Grüße
Kai
 
Hallo Kai,

vielen Dank für die wertvollen Informationen! - Habe eben doch tatsächlich auf meinem Laptop noch ein Mrotzek-Video vom 2. Juni 2011, 22:23 MESZ, gefunden, aus welchem ich diesen 64 Frames umfassenden Ausschnitt als Zeitlupenanimation herausgeschnitten habe:

Link zur Grafik: http://www.astro-vr.de/Mrotzek_110602.gif

Leider kann ich nicht mehr feststellen, welches Objekt das war. Das Video wurde mit 24 fps aufgenommen, und die Zeitlupe läuft mit 4 fps. Man erkennt sehr schön, wie stark sich das Seeing von einem Frame zum nächsten ändert, und wie gering der Anteil der Frames mit akzeptabler Qualität ist. Es wäre gewiss spannend nachzuschauen, wie sich das Mrotzek-Kreuz bei 200 fps verhält!

Dem vorletzten Diagramm Deines sehr instruktiven Berichts und Deinem begleitenden Kommentar ist zu entnehmen, in welch kurzer Zeit das Seeing von hervorragend auf mittelmäßig abstürzen kann. Dazu habe ich ein entsprechendes Beispiel, in diesem Falle nicht mit Mrotzek, sondern unmittelbar mit Jupiter. Die Bilder liegen jeweils 5 Minuten auseinander. Die letzten beiden Bilder sind vom abgestürzten Seeing völlig verschleiert. Hier ist dieselbe Szene noch als gleitende Animation zu sehen.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan,

vorweg:
Die Jupiter Animationen sind Klasse!
Habe die gerade mit meinem Sohn angeschaut, nachdem wir gestern festgestellt haben, dass der Jupiter am schnellsten von allen Planeten rotiert... stimmt :super:

Zum Seeing:
Die Fälle von plötzlich schlechterem Seeing sind subjektiv eher selten. Aber wer weiss? So genau habe ich das nicht untersucht.
Mein Traum ist immer noch ein Stand-alone Seeing Monitor.
Dann könnte man in Deinem Fall genau an der richtigen Stelle die Tausend Frames starten.

Mir hat die Software jedenfalls sehr geholfen ein besseres Verständnis und Gefühl für das Seeing zu entwickeln.
Das war für mich die Entdeckung des Jahres! Vorallem weil es nix kostest und trotzdem funktioniert :pfeif:

Viele Grüße
Kai
 
Zuletzt von einem Moderator bearbeitet:
Zitat von fraxinus:
Die Jupiter Animationen ... Habe die gerade mit meinem Sohn angeschaut ...
Hallo Kai,

weiß nicht, wie alt Dein Sohn ist, jedenfalls schön, wenn sich ein Kind oder Jugendlicher in unserer Zeit der schnellen Computerspiele noch für etwas so "langsames" wie Astronomie interessiert. Mit den zu der Animation verarbeiteten Aufnahmen hatte ich in der Tat riesiges Glück, die entstanden nämlich sozusagen als "First-Light" meines 10"-Spiegels, d.h. in der zweiten Beobachtungsnacht mit dem Instrument nach dessen Fertigstellung, und ich hatte so gutes Seeing seither nicht wieder erlebt.

Wenn das Seeing so plötzlich abstürzen kann wie in dieser Nacht, oder auch bei der von Dir beschriebenen Messreihe, dann stelle ich mir vor, dass es gelegentlich auch einmal ebenso plötzlich auftreten kann. Seit geraumer Zeit protokolliere ich auf meiner Website zusammen mit den dort eingetragenen Bildern auch die zur Zeit der Aufnahme an verschiedenen Stellen im Netz dokumentierten Wetterbdingungen, konnte aber bislang keinen Zusammenhang mit dem Seeing erkennen. Da spielen wohl einige Faktoren eine Rolle, wie man sie etwa aus den Vorhersagedaten von Meteoblue kennt. Ich weiß nicht, wie zuverlässig solche Vorhersagen sind, hatte da schon einige Male in guter Hoffnung vergeblich aufgebaut.

Zitat von fraxinus:
Mein Traum ist immer noch ein Stand-alone Seeing Monitor.
Über die Entwcklung eines solchen Geräts habe ich mir auch schon Gedanken gemacht, allerdings nach einem simpleren Prinzip.

Zitat von fraxinus:
Mir hat die Software jedenfalls sehr geholfen ein besseres Verständnis und Gefühl für das Seeing zu entwickeln.
Die Sache erscheint mir jedenfalls hinreichend attraktiv, um sie selbst einmal ausprobieren zu wollen. Nochmal vielen Dank für Deine Hinweise und Berichte dazu!

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Zitat von Christian_P:
Ich müsste mir sowieso irgendwan einen neuen Laptop kaufen.
Zitat von Jan_Fremerey:
Bezüglich der Datenübertragungsrate zum Laptop mache ich mir keine wirklichen Sorgen, da die gegenwärtige ALccd5 nominell 24 Mpx/s und die neue ALccd5-II 39 Mpx/s ausgibt.
Hallo Christian,

wie ich inzwischen herausgefunden habe, gibt es da zumindest in meinem Notebook offenbar doch beachtliche Engstellen. Allein die mittels "HD Tunes" gemessene Transfer-Rate der Festplatte von lediglich 19 MB/s würde der Sache im Wege stehen. Wie schnell die USB-Schnittstelle arbeitet, habe ich noch nicht getestet. Vor der möglichen Neuanschaffung eines Laptops sollte man vielleicht im Hinblick auf schnelle Videokameras auch einmal genauer hinschauen, wie schnell die mit "SSD-Festplatte" ausgestatteten Geräte aufnehmen können.

Eben fand ich noch diese Notiz dazu.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Status
Es sind keine weiteren Antworten möglich.
Oben