Kameravergleich, Rolling Shutter, USB3.0 Repeater

Status
Es sind keine weiteren Antworten möglich.

Wellmann

Aktives Mitglied
Hallo!

Lange habe ich überlegt, ob ich das überhaupt posten soll. Ich hoffe nun, dass es wenigstens einige User des Forums interessiert. War eine Menge(!) Arbeit, und nicht ganz billig. Wer kein Interesse an der Theorie hat, sollte die entsprechenden Abschnitte überspringen. Falls der Eine oder Andere die Mühe auf sich nimmt zu lesen, wären sachlich formulierte Kommentare, Rückmeldungen und Anregungen für mich durchaus erfreulich.



Link zur Grafik: http://www.gym-vaterstetten.de/faecher/astro/Fotografie/Kameras_klein.jpg

Das Kamera-Problem: Dass im Laufe der Jahre die Kameras immer weiter entwickelt und verbessert werden, ist eine feine Sache. Man fragt sich jedoch ständig, ob die eigene Kamera noch aktuell ist. Dieser Vergleich von Vertretern dreier Kameragenerationen soll diese Frage beantworten, und gilt ausschließlich für die Mond/Planetenfotografie. Untersucht wurden Kameras von TIS, natürlich gilt dieser Vergleich aber auch für alle anderen Kameras mit den gleichen Bildsensoren, und einer Elektronik auf TIS-Niveau. Die Überlegungen gelten sowohl für die schwarzen Astro-Kameras (C-Mount) als auch für die sonst baugleichen blauen Industriekameras (CS-Mount). Hier der Link zum Kameravergleich.



Link zur Grafik: http://www.gym-vaterstetten.de/faecher/astro/Fotografie/RS_Beispiele.jpg

Das Shutter-Problem: Bei CCD-Sensoren werden alle Pixel gleichzeitig belichtet, und dann zusammen ausgelesen (Global Shutter GS). Bei vielen auf dem Markt befindlichen CMOS-Sensoren wird zeilenweise und damit zeitversetzt belichtet (Rolling Shutter RS). Das Bild eines schnell bewegten Motivs wird daher durch den Zeitversatz zwischen den einzelnen Zeilen bis zur Unkenntlichkeit verzerrt. Da bei astronomischen Aufnahmen immer eine gewisse Luftunruhe herrscht, und gelegentlich auch Wind zu Schwingungen des Teleskops führt, muss man unbedingt darüber nachdenken, ob ein RS unter bestimmten Bedingungen Probleme verursachen könnte. Es stellt sich auch die Frage ob nicht generell CCD-Sensoren bessere Bilder als CMOS-Sensoren liefern. Hier der Link zur Untersuchung des Rolling Shutter Problems.



Link zur Grafik: http://www.gym-vaterstetten.de/faecher/astro/Fotografie/Kabel_teilreduziert_klein.jpg

Das Anschluss-Problem: Eine weitere Problematik ergibt sich für Kameras mit hoher Datenrate. Sie benötigen eine schnelle Schnittstelle wie zum Beispiel USB3.0. Steht der Computer nicht direkt am Teleskop, benötigt man ein längeres Anschlusskabel, eine so genannte "aktive Verlängerung". Das ist ein Kabel mit Elektronik zur Signalaufbereitung in den Steckern, die über USB oder ein eigenes Netzgerät mit Strom versorgt wird. Solche Kabel funktionieren bei USB3.0 leider nicht immer einwandfrei. Hier der Link zur Untersuchung des Problems USB3.0 Repeater.



Gruß, Peter

 
Hallo Peter,

sehr interessant. Der Rolling Shutter meiner Asi120mc verzerrt bei mir vor allem auch die ISS Bilder sehr häufig. Klar, da führe ich auch manuell nach und das sorgt natürlich für mehr Bewegung.

Für mich neu war die Auswirkung der ROI und das ein senkrechteres Fenster günstiger ist. Gerade bei den hellen Planeten verwende ich immer eine ROI um die Framerate so hoch wie möglich zu bekommen. Zum Glück habe ich die durch den kleinen senkrechten Drift bei meiner manuellen Nachführplattform bisher auch so angepasst, also eher schmal und dafür höher.

Gruß,
Holger
 
Es gibt durchaus gute CMOS Sensoren mit global shutter, aber sie hinken dem dynamic range der rolling shutter stets ein wenig hinterher (z.B. AR0134 vs. AR0130). Vor allem kann ein rolling shutter gleichzeitig Zeilen belichten und andere Zeilen auslesen, während ein global shutter in der Regel belichtet oder ausliest und das bedeutet eine geringere maximale Framerate. Weiterhin ist die Effizienz des Shutters nicht perfekt, d.h. während des Auslesens wird weiter ein wenig Licht auf den Sensor fallen und es gibt einen Gradienten. Das sieht man besonders bei hohem gain. Darum sind rolling shutter so beliebt.

Die Sony IMX2xx Sensoren sind exzellente global shutter Sensoren mit sehr gutem dynamic range und sehr geringen Auslesezeiten.

Das hat also nichts mit CCD vs. CMOS zu tun.

Michael
 
Hallo Holger!

Der Rolling Shutter ist der Pferdefuß, mit dem wir bei den preiswerten CMOS Kameras leben müssen. Zwar werden für wissenschaftliche Zwecke in wachsendem Maße nur noch Kameras mit Global Shutter angewendet, aber namhafte Hersteller geben die Auskunft, dass die Rolling Shutter Versionen wegen des geringen Preises im Consumer Markt nicht so schnell aussterben werden.

Gerade auch auf dem Sektor kleiner Pixel, der für Astrofotografie von Mond/Planeten ohne Barlow interessant ist, ist die Integration der zusätzlichen Speicherzelle in jedes Pixel ein Problem das dazu führt, dass wir im Bereich unter 2,4µ vermutlich vorerst mit dem Rolling Shutter leben müssen.

Das führt natürlich bei Anwendungen wie der manuell nachgeführten ISS-Fotografie (die ich im übrigen bewundere) zu Problemen. Auch bei weniger kritischen Aufgaben führt der RS zu Qualitätsverlusten. Meine Rechnungen zeigen erfreulicher Weise aber, dass es bei Beachtung einiger Regeln keine gravierenden Nachteile gibt, und bei perfektem Seeing keine Rolle mehr spielen sollte.

Eine dieser Regeln betrifft die ROI. Bei unseren 5 getesteten RS-Kameras war das so: Wenn zum Beispiel ein Bildformat der Höhe 1000 Pixel auf eine ROI mit 200 Pixel gestellt wird, verfünffacht sich der RS-Effekt. Du musst also die Framerate um den Faktor 5 anheben, um diese Verschlechterung zu kompensieren. Falls Du genügend helle Bilder hast, um mit der dann 5 mal kürzeren Belichtungszeit auszukommen, ist das kein Problem. Problematisch wird es aber bei lichtschwachen Planeten, wenn trotz ROI die Framerate wegen zu kurzer Belichtung nicht angehoben werden kann.

Ich wünsche Dir weiterhin Erfolg mit der faszinierenden ISS-Fotografie!

Gruß, Peter
 
Hallo Michael!

Vielen Dank für Deinen Beitrag!

CCD vs. CMOS bedeutet doch lediglich einen Wettstreit der beiden Systeme, der sicher gerechtfertigt ist. Es geht hier übrigens nur(!) um die Eigenschaften der Systeme bei hoch auflösender Fotografie von Mond/Planeten, wobei einige der positiven oder negativen Eigenschaften gar nicht interessieren.

So ist für die Mondfotografie eine besonders hohe Framerate und Effizienz nicht von ausschlaggebender Bedeutung, wichtig ist hauptsächlich die Bildqualität. Und da ist zum Beispiel meine DMK41 CCD-Kamera im Endresultat von einer guten CMOS-Kamera vermutlich erreichbar aber keinesfalls zu schlagen. Nur ein Beispiel

Ich konnte diese Bildqualität mit meinen IMX178 (RS) oder IMX265 (GS) Kameras bisher leider noch nicht erreichen, bin aber zuversichtlich das noch zu schaffen. Bei Planetenvideos ist eine hohe Effizienz schon wichtiger, eine hohe Framerate nur bedingt bei Jupiter. Hier versprechen die modernen CMOS-Kameras speziell auch in den Farbversionen einen echten Fortschritt.

Der Rolling Shutter ist (welche Vorteile er auch sonst haben mag) für bewegte Bilder schon ein Problem, und verschwindet daher schon jetzt für besonders qualifizierte Anwendungen komplett vom Markt. Erfreulicher Weise ergab die genaue Untersuchung für hoch auflösende Mond/Planetenbilder eine weitgehende Entwarnung. In beiden Fällen hält sich der RS-Effekt bei Beachtung einiger Regeln in engen Grenzen.

Gruß, Peter
 
Hallo Peter,

danke für Deine Ausführungen. Wirklich sehr nützlich. Z.B. beim Jupiter lohnt sich die Roi, da ich so die für die kurze Belichtungszeit maximal mögliche Framerate erzielen kann.
Beim Uranus hatte ich zuletzt aber nur wegen der kleineren Dateigröße eine Roi gezogen.
Mir sind da zwar keine typischen RS-Effekte / Störungen aufgefallen aber dank Deiner Infos werde ich das wohl im Blick behalten.

Gruß,
Holger
 
Ich wollte nur darauf hinaus, dass CCD vs. CMOS nichts mit rolling vs. global shutter zu tun hat.

Was ROI angeht: Ich kenne viele Sensoren, die nur Zeilen weglassen können, d.h. die Reduzierung der Höhe resultiert direkt in einem Geschwindigkeitsgewinn auf der Sensorschnittstelle. Die Reduzierung der Breite überträgt dann Blanking statt Daten, d.h. der Sensor wird damit nicht schneller. Es spart nur Speicher- und USB-Bandbreite, aber die Zeilen sind zeitlich weiter voneinander entfernt, als man denkt.

Die Qualität von Kameras kann man nur schlecht anhand von fertigen Bildern beurteilen, weil da auch viele andere Dinge eine Rolle spielen. Ich bin seit einiger Zeit dabei, mir ein Setup zur Analyse aufzubauen, was reproduzierbare Ergebnisse bringen soll und von jedem günstig nachgebaut werden kann. Das hätte den Vorteil, dass man Fragen wie die Auswirkung von gain bei einem bestimmten Sensor genau messen kann, anstatt sich auf Annahmen und Spekulationen zu verlassen.

Leider geht das bisher nicht so glatt voran, wie ich gerne hätte, d.h. ich lerne immer noch viel dazu, z.B. woran man merkt, wenn eine Ulbrichtkugel schlecht ist.

Michael
 
Hallo Michael,

das die Reduzierung der Breite keine höhere Framerate bringt musste ich sofort testen, denn ich arbeite viel mit ROI.

Bei der Asi120mm waren in dem linken Vorschau-Fenster unter firecapture folgende aktuelle FPS Werte zu sehen (ohne die Aufnahme zu starten )

1. Vorgegebene Höhe: 544
Breite: 672 / 58 fps, 416/91, 256/99, 96/99

2. Vorgegebene Breite: 544
Höhe: 672/58fps, 416/91, 256/142, 96/425

Ab einer gewissen Fenstergröße wirkt sich also auch die Breite auf die Framerate aus, aber wenn es dann kleiner wird, scheint eine breitere aber dafür weniger hohe ROI vorteilhafter zu sein.

Danke für Deine Infos, denn ich hätte das sonst nie ausgetestet.

Gruß,
Holger
 
Die Frage ist halt immer, was begrenzt: Die Sensorschnittstelle oder der Rest der Kamera.

Onsemi bietet freundlicherweise Datenblätter an: http://www.onsemi.com/pub/Collateral/MT9M034-D.PDF

Auf Seite 11 siehst Du, wie das horizontal blanking von der Zeilenbreite abhängt: Je kleiner A, desto größer Q. Darum gehen gleich viele Daten über die Sensorschnittstelle, aber Speicherbandbreite, Postprocessing in der Kamera und USB kosten natürlich auch Zeit.

Wie gesagt, das ist ziemlich üblich bei Bildsensoren.

Michael
 
Hallo Peter,

Erstmal vielen Dank für Deine Analysen. Sehr gute Dokumention, hinter der bestimmt eine Menge Arbeit gesteckt hat !


Zitat von Wellmann:
Und da ist zum Beispiel meine DMK41 CCD-Kamera im Endresultat von einer guten CMOS-Kamera vermutlich erreichbar aber keinesfalls zu schlagen.
Das Problem mit solchen Vermutungen ist, dass man sie nie in Praxis wird betätigen oder wiederlegen können, denn das Seeing wird hier nie identische Aufnahmebedingugnen zulassen. Insofern könnte ich ebenso das Gegenteil behaupten, ohne dass Du mir das wiederlegen könntest. Fakt ist jedenfalls, dass CCDs vom Markt zunehmend verschwinden werden, denn SONY hat z.B. die Produktion langfristig abgekündigt und wird nur noch CMOS produzieren.

Gruß, Torsten
 
Hallo Michael!

Was ROI angeht: Ich kenne viele Sensoren, die nur Zeilen weglassen können, d.h. die Reduzierung der Höhe resultiert direkt in einem Geschwindigkeitsgewinn auf der Sensorschnittstelle. Die Reduzierung der Breite überträgt dann Blanking statt Daten, d.h. der Sensor wird damit nicht schneller. Es spart nur Speicher- und USB-Bandbreite, aber die Zeilen sind zeitlich weiter voneinander entfernt, als man denkt.

Die Kameras scheinen bei ROI nicht alle identisch zu arbeiten. Es sind auch oft nicht beliebige Ausschnitte verfügbar. Entscheidend war bei meinen Kameras in Bezug auf RS-Effekt immer die Framerate. Wenn die sich bei einer Verringerung der Bildbreite erhöht, ist das positiv in Hinblick auf RSE.

Die Qualität von Kameras kann man nur schlecht anhand von fertigen Bildern beurteilen, weil da auch viele andere Dinge eine Rolle spielen. Ich bin seit einiger Zeit dabei, mir ein Setup zur Analyse aufzubauen, was reproduzierbare Ergebnisse bringen soll und von jedem günstig nachgebaut werden kann.

Es gibt viele sehr gute Mondfotografen weltweit. Da ist der Vergleich für verschiedene Kameras und Optiken durchaus kein Problem. Man kann dann das Erreichen der theoretischen Auflösung durch den Vergleich mit NASA-Bildern bekannter Auflösung leicht überprüfen. Dann beurteilt man den Bildeindruck in Bezug auf Rauschen, Gamma, und kommt zu einer sehr aussagekräftigen Beurteilung. Wenn ich dann ein Bild sehe, dass dem von mir verlinkten (durchaus nicht ganz perfekten) entspricht bin ich sicher, dass das mit CMOS genau so gut funktioniert wie mit CCD.

Ich habe immer wieder versucht einen reproduzierbaren, aussagekräftigen Test "im Zimmer" zu finden, bisher gab es aber stets irgendwo ein Problem. Deinen Ansatz mit der Ulbrichtkugel finde ich daher nicht schlecht.

Gruß, Peter
 
Hallo Torsten!

Das Problem mit solchen Vermutungen ist, dass man sie nie in Praxis wird betätigen oder wiederlegen können, denn das Seeing wird hier nie identische Aufnahmebedingugnen zulassen. Insofern könnte ich ebenso das Gegenteil behaupten, ohne dass Du mir das wiederlegen könntest. Fakt ist jedenfalls, dass CCDs vom Markt zunehmend verschwinden werden, denn SONY hat z.B. die Produktion langfristig abgekündigt und wird nur noch CMOS produzieren.

Das Sony keine CCD mehr produziert, ist einfach das Gebot der Stunde. Die Firma möchte natürlich Umsatz machen und Geld verdienen. Dabei ist es Sony sicher völlig egal, ob eventuell die CCD für bestimmte Zwecke bessere Ergebnisse liefen. Da nun alle CMOS für wissenschaftliche Zwecke demnächst mit Gobal Shutter gefertigt werden, ist auch ein Kritikpunkt beseitigt. Leider haben CCD einige Nachteile gegenüber den modernen CMOS, die aber nicht primär die erreichbare Bildqualität betreffen, auch das hat zur explosionsartigen Verbreitung beigetragen.

Wichtig ist immer ausschließlich nur was hinten herauskommt. Und das sehe ich nur an den fertigen Bildern. Material gibt es von vielen hervorragenden Mond/Planeten Fotografen, und das ist zumindest beim Mond immer unter relativ guten Umständen entstanden, "Mist", unter fragwürdigen Bedingungen entstanden, wird von diesen Leuten gar nicht erst bearbeitet, und auch keinesfalls veröffentlicht, zumindest nicht ohne entsprechenden Kommentar.

Deine hervorragende Arbeit geht ja definitiv auch in diese Richtung, und alleine aus den Veröffentlichungen von Planetenbildern im Forum kann man erkennen, dass CMOS zumindest auf diesem Sektor CCD ebenbürtig ist. Über Mondaufnahmen möchte ich hier definitv keinesfalls(!) reden, das würde nur zu uferlosen Diskussionen führen. Gute Ansätze sind gemacht, ich verfolge das weiter nach dem Motto "Theoretische Auflösung der Optik bestimmen, im Bild schauen was sauber und ohne Artefakte erreicht wird". Irgendwann wird das Seeing ja mal passen.

Gruß, Peter
 
Ich würde die Qualität nicht an CCD vs. CMOS festmachen. Es gibt bei beiden Technologien gute und schlechte Sensoren.

Sony baut, was der Markt verlangt, und den interessiert Video sehr stark, dazu gute Frameraten, und natürlich geringes Rauschen und das alles zu kleinen Preisen. Global shutter wird vom Markt durchschnittlich eher wenig verlangt. Sony hat bei CCDs sehr gute Technologie produziert. Die ISO-losen Kameras, mit denen Nikon bekannt wurde, hatten CCD-Sensoren von Sony. Diese Technologie gibt es nun von Sony bei CMOS in den IMX2xx Sensoren, darum hat gain hier andere Auswirkungen als bei anderen Kameras. Der Sensormarkt ist definitiv immer noch sehr in Bewegung. Faustregeln sind garantiert schnell falsch.

Leider ist es bei Astrokameras so, dass selten mit Zahlen diskutiert wird. Bei "normalen" Kameras gibt es z.B. dxomark, wo u.A. das Rauschen mit publizierten Verfahren gemessen wird. dxomark umfasst noch erheblich mehr, aber die grundlegenden Zahlen zu Rauschen und dynamic range sind schon extrem nützlich. Noch besser wäre es, wenn die Rohdaten der Messungen verfügbar wären.

Das Problem ist, dass eigene Messungen unbedingt mit einem homogenen Lichtfeld bekannter Helligkeit gemacht werden sollten und das ist ohne Ulbrichtkugel eine ziemliche Fummelei, die letzten Endes doch immer noch Artefakte zeigt. Ich dachte, ich wäre damit schon weiter, bis sich zeigte, dass meine Kugel einen unbefriedigenden Reflektionsgrad hat. Also habe ich gerade alles abgeschliffen und versuche es anders.

Es ist extrem schade, dass das cam84 Projekt so schlecht lief. Dort kommt nämlich ein CCD von Sony zum Einsatz und es gibt nachweislich echte raw Bilder, während Nikon sich in der Beziehung ja nicht mit Ruhm bekleckert hat.

Michael
 
Hallo zusammen,

bei der Argumentation und Annahme habe ich ein gedankliches Problem bzw. weiss ich nicht, ob die Kern-These bewiesen werden kann:

Das Bild eines schnell bewegten Motivs wird daher durch den Zeitversatz zwischen den einzelnen Zeilen bis zur Unkenntlichkeit verzerrt.

Ich habe mal die Auslesezeiten der CMOS ASI120mm herauskopiert:

...
640X480@113FPS
512X440@123FPS
512X400@135FPS
480X320@165FPS
320X240@215FPS

(Annahme: bei den DMK-Kameras wird es ähnlich sein)

Wenn ich jetzt einmal die letzte Zeile der Specs sehe, dann wird bei einem Ausschnitt von 320x240 (ROI) 215 Frames pro Sekunde ausgelesen, Das ganze Bild. 1 Spalte davon wäre wird danach in 1/ 215 0,004166 Sekunden. Wir reden hier pro Spalte in diesem Beispiel von einem Zeitfaktor von 4 Millisekunden.

Ob bei diesen hohen Auslesegeschwindkeiten der Zeitversatz zwischen den einzelnen Zeilen einen signifikanten Einfluss haben, kann ich mir kaum vorstellen. Ich bin kein Messingenieur, aber es wäre mal spannend, die These zu beweisen,

CS
Peter
 
Hallo Peter!
bei der Argumentation und Annahme habe ich ein gedankliches Problem bzw. weiss ich nicht, ob die Kern-These bewiesen werden kann:

Antwort auf:
Das Bild eines schnell bewegten Motivs wird daher durch den Zeitversatz zwischen den einzelnen Zeilen bis zur Unkenntlichkeit verzerrt.
Der Beweis ist die im ersten Beitrag dieses Threads von mit eingefügte Bildfolge mit dem völlig verzerrten Motiv. Belichtungszeit war 1/1000s.

640X480@113FPS
512X440@123FPS
512X400@135FPS
480X320@165FPS
320X240@215FPS

(Annahme: bei den DMK-Kameras wird es ähnlich sein)

Wenn ich jetzt einmal die letzte Zeile der Specs sehe, dann wird bei einem Ausschnitt von 320x240 (ROI) 215 Frames pro Sekunde ausgelesen, Das ganze Bild. 1 Spalte davon wäre wird danach in 1/ 215 0,004166 Sekunden. Wir reden hier pro Spalte in diesem Beispiel von einem Zeitfaktor von 4 Millisekunden.

Ob bei diesen hohen Auslesegeschwindikeiten der Zeitversatz zwischen den einzelnen Zeilen einen signifikanten Einfluss haben, kann ich mir kaum vorstellen. Ich bin kein Messingenieur, aber es wäre mal spannend, die These zu beweisen,
Bitte unterscheide genau:

1. Die Auslesegeschwindigkeit ist bei allen CMOS Kameras sehr hoch, und spielt beim RSE keine Rolle.
2. Die Belichtungszeit ist für den RSE völlig egal, und spielt keine Rolle.
3. Die Framerate ist die einzige Größe, die (neben der Bewegung im Bild) den RSE bestimmt.

Bei Deinen oben angegebenen hohen Frameraten ist der RSE vernachlässigbar klein, eine These wäre also gar nicht zu beweisen.

Der RSE ist erheblich komplizierter als auf den ersten Blick zu vermuten, daher habe ich die umfangreiche Abhandlung geschrieben. Ich kann verstehen, wenn man keine Zeit hat das genau zu lesen. Aber dann bleiben Missverständnisse, die ich versucht habe hier zu klären.

Gruß, Peter


 
Hallo Peter,

Danke für Deine Erklärung. Ich habe tatsächlich Deine Abhandlung (Link) übersehen und werde es in Ruhe nachholen.

CS
Peter
 
Status
Es sind keine weiteren Antworten möglich.
Oben