8,3 µm Pixelweite bei f/20 ?

Status
Es sind keine weiteren Antworten möglich.
Hallo Jan!

Insofern scheint sich die von Peter Wellmann hier aufgebrachte Debatte um „Zwischenräume“ nun doch noch als unzutreffend erledigt zu haben, d.h. die von den Herstellern angegebenen Pixelabmessungen sind offenbar tatsächlich gleichzusetzen mit dem „Rastermaß“ des Pixelarrays.

Bei den TIS-Kameras ist das definitiv nicht so. Dort ist nach allen Rücksprachen bezüglich der Datenblätter eindeutig das Rastermaß vom Pixelmaß verschieden. Das geht bei einem einfachen Interline Transfer Chip auch nicht anders, weil die Ausleseregister abgedunkelte Pixelzeilen sind, die zwischen den aktiven Pixelzeilen liegen. In diese Zeilen wird am Ende der Belichtung durch den "elektronischen Shutter" die Ladung der aktiven Pixel verschoben, und dann sequentiell ausgelesen (s. unsere Darstellung in SUW).
Bei Deinem interessanten Vergleich stellt sich also die Frage, was für ein Chip genau in der Marlin verbaut ist. Ohne ein Datenblatt ist die Angelegenheit nicht zu klären.

Gruß, Peter
 
Hallo Oliver!

Number of effective pixels: 659 (H) × 494 (V) approx. 330K pixels
• Total number of pixels: 692 (H) × 504 (V) approx. 350K pixels
• Chip size: 4.60mm (H) × 3.97mm (V)
• Unit cell size: 5.6μm (H) × 5.6μm (V)
• Optical black: Horizontal (H) direction: Front 2 pixels, rear 31 pixels
Vertical (V) direction: Front 8 pixels, rear 2 pixels
• Number of dummy bits: Horizontal 16

Bei einem einfach konstruierten Interline Transfer Chip befinden sich konstruktionsbedingt abgedunkelte Pixelreihen zwischen den aktiven Pixeln, das ist nun mal nicht zu vermeiden, auch wenn diese Pixel weniger breit als die aktiven auftragen, einen Zwischenraum gibt es immer. Dieser lässt sich auch nur durch Mikrolinsen überbrücken, und die haben die TIS-Kameras nicht.

Die technischen Daten sind schwer zu interpretieren, z.B. findet sich die Auflösung von 640x480 in den Daten nicht wieder. Auch errechnet sich aus den Pixelzahlen (incl. optical black etc.) und den 5,6 Kantenlänge nicht annähernd die angegebene Chipgrösse von 4,6 x 4mm, was eindeutig für erhebliche Zwischenräume sprechen würde. Ich räume Dir allerdings ein, dass je nach Interpretation es natürlich sein könnte, dass ich bei den zuvor gemachten Überlegungen die Zwischenräume zwischen den Pixeln zu groß angesetzt habe. Nach Telefonaten mit den Fachleuten (geführt für unseren Test) ist aber 5,6x5,6 angeblich nur der aktive Bereich des Pixels, und 4,6 x 4,0mm die Größe des mit Pixeln versehenen Bereichs. Eine klare Aussage über die Größe der Zwischenräume habe ich nicht bekommen können, nur eine Bestätigung, dass sie vorhanden sind (s. auch Recherche im Internet).

Weil das nicht exakt zu klären war, haben wir den ungünstigsten Fall für die Zwischenräume angenommen (das ist bei einigen Chips eine volle Pixelbreite), der sich bei der Internetrecherche ergab, und bei der Auflösung sicherheitshalber mit 5x5 aktiven Pixelzellen-Breiten gerechnet.

Sollte die oben grün hervorgehobene Experten-Auskunft (eines Kameraentwicklers) nicht stimmen, und die 5,6x5,6 würden die nicht aktiven Bereiche mit enthalten, so sähe das Problem natürlich anders aus, aber ich habe eben andere Auskunft bekommen.......

damit waere das Raster in x und y Richtung ja nicht aequidistant und runde Planeten wuerden als Ellipse dargestellt, kann also nicht sein...

Darüber habe ich auch schon nachgegrübelt. Muss aber nicht unbedingt sein: Bei der Watec sind die Pixel eindeutig rechteckig, dennoch liefert die Kamera zumindest mit meinen Auswertungsprogrammen exakt runde Kreise, wo die Umrechnung erfolgt (in der Kamera oder in der Software), keine Ahnung. Es gibt allerdings auch Leute, die angeblich die Bilder entzerren müssen, war bei mir aber nie der Fall....

Gruß, Peter
 
Zuletzt von einem Moderator bearbeitet:
Hallo zusammen,

dann muß uch noch meinen Senf dazugeben. Ich versuche es mal, über die Astronomie zu lösen.
Ich habe eine Aufnahme mit der DMK21AF 640x480 Pixel mit einem Intes Micro MK715 (Brennweite 2700mm) und 2.5x Barlow von Castor in den Zwillingen im Dezember 2005 gemacht. Zu diesem Zeitpunkt hatten die beiden Komponenten von Castor ca. 4.4" Abstand.

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/Castor_registax.jpg


Nach der bekannen Berechnung der Winkelauflösung für die Pixel und einem Pixelabstand der Komponenten von (17, 21), die ich per Cursor ausgelesen habe, bekomme ich:

4.6" = 206*5.6/2700./2.5 * sqrt(17.0*17.0 + 21.0*21.0) für 5.6µ Pixel, aber
6.8" = 206*8.3/2700./2.5 * sqrt(17.0*17.0 + 21.0*21.0) für 8.3µ Pixel

Laut Katalog sind es für 2006 ja 4.4". Also ist dann doch alles klar, oder???

Gruß Peter



 
Hallo Peter!

Laut Katalog sind es für 2006 ja 4.4". Also ist dann doch alles klar, oder???

Nicht ganz! Hier noch mal die technischen Daten des Chips:

Number of effective pixels: 659 (H) × 494 (V) approx. 330K pixels
• Total number of pixels: 692 (H) × 504 (V) approx. 350K pixels
• Chip size: 4.60mm (H) × 3.97mm (V)
• Unit cell size: 5.6µ (H) × 5.6µ (V)
• Optical black: Horizontal (H) direction: Front 2 pixels, rear 31 pixels
Vertical (V) direction: Front 8 pixels, rear 2 pixels
• Number of dummy bits: Horizontal 16

Der Chip hat 659 + 2 + 31 = 692 Pixel horizontal und 494 + 8 + 2 = 504 Pixel vertikal. Rechnet man mit der Unit cell size von 5,6µ (also ohne Zwischenräume) so ergäbe sich daraus eine Chipgröße von 3,9 x 2,8 Millimetern. Die angegebene Chipgröße ist aber 4,6 x 4 Millimeter. Das würde eine Differenz von 0,7 bzw. 1,2 Millimeter in x bzw. y ergeben. Diese Differenz wäre die Summe der Zwischenräume in x und y. Das diese Zwischenräume technisch bedingt mit absoluter Sicherheit vorhanden sein müssen, ist klar. Jetzt rechne ich mal die Rastergröße genauer aus, als in den Postings zuvor. Ich berücksichtige die vollen 692 x 504 Pixel, Division der Chipgröße durch die Pixelzahl ergibt ein Raster von 6,6µ x 7,9µ. Die von Dir und mir in Postings zuvor überschlagenen 8,3µ sind also deutlich zu groß angesetzt, im Mittel wären eher 7,3µ anzusetzen.

Nun spricht Deine sehr gut durchdachte Untersuchung eindeutig dagegen. Hierfür gibt es zwei mögliche Erklärungen:

1. Die Kameraentwickler mit denen ich gesprochen habe, haben mir falsche Auskünfte gegeben was die 5,6µ bedeuten und was die Chipgröße bedeutet, was ich nicht 100% ausschließen will.

2. Deine beiden Rechnungen unterscheiden sich um den Faktor 1,5. Bist Du ganz sicher, dass die Brennweite stimmt (hat das Gerät eine Hauptspiegelfokussierung, so ist das nicht gesichert). Noch problematischer: Bei einer Barlow liegt der Fokus innen in der Okularhülse, also an einer Stelle, wo der Kamerachip nicht hinkommt. Der Kamerachip liegt viel weiter außen als die Bildebene eines Okulars, und das ändert den Verlängerungsfaktor sehr stark. Aus 2,5fach werden da leicht 3,3fach, und bei Verwendung von 7,3µ als Rastermaß würde ein Faktor 3,3 für die Barlow schon reichen, deine Rechnung völlig umzudrehen…...

Ich bin auch etwas ratlos, welche der Erklärungen stimmt. Die beste Lösung wäre wohl, noch mal einen Experten von Sony zu befragen, aber es ist fast unmöglich da ran zu kommen. Falls irgendwer eine solche Expertenmeinung (aber von einem wirklichen Experten für die hier ausschließlich betrachteten Interline Transfer Chips ohne Mikrolinsen) beibringen kann, ich schließe mich dem Ergebnis gerne an, auch wenn sich dabei meine vorher gemachten Aussagen als fehlerhaft erweisen sollten. Interessant für mich wäre auch noch die Frage, an welcher Stelle das gegebenenfalls rechteckige Rastermaß so korrigiert wird, das Kreise rund erscheinen (wie z.B. auch bei meiner Watec, die mit meiner Software trotz rechteckiger Pixel völlig runde Kreise liefert).....

Mehr kann ich (auch zeitlich, man beachte mal die Uhrzeit dieses Postings) momentan nicht mehr zum Thema beitragen, und bedanke mich bei Allen, die zu dieser für mich sehr interessanten Diskussion beigetragen haben. Sicher schaue ich gelegentlich noch mal rein, ob sich so oder so eine eindeutige Lösung ergeben hat....

Gruß, Peter
 
Hallo!

Weil ich das zuvor stehende Posting nicht mehr editieren konnte, hier noch eine Ergänzung:

Ich habe noch mal in den Sony Datenblättern nachgeschaut. Aus einer Skizze entnimmt man für die Höhe der aktiven Fläche 4mm, das stimmt mit der Zahlenangabe der aktiven Fläche von 4 x 4,6mm überein, die 4,6mm für die Breite dürften dann also auch stimmen. Daraus berechnet sich eine Diagonale der aktiven Fläche von 6,1mm.

An anderer Stelle wird jedoch im Datenblatt eine Diagonale von 4,5mm angegeben. Dieser Wert würde stimmen, wenn man bei 640x480 Pixeln eine Pixelgröße von 5,6µ annimmt. Das würde dann aber bedeuten, dass die beim Interline Chip ohne Mikrolinsen erforderlichen Zwischenräume tatsächlich bereits in den 5,6µ Pixelgröße enthalten sind, wie auch schon von Einigen vermutet. Damit wäre ich (immerhin von einem Experten und Kameraentwickler) falsch informiert worden. Klären kann ich die Widersprüche momentan nicht, neige aber inzwischen auch immer mehr zu der zweiten Version.

Die von mir angestoßenen Überlegungen zu den nicht aktiven Zwischenräumen (die auf jeden Fall beim Interline Transfer Chip ohne Mikrolinsen vorhanden sind) und auch die hergeleitete Formel zur Anpassung der Kamera an die Optik bleiben in jedem Fall erhalten, denn die dort verwendete Größe x ist ja als Länge des aktiven Pixels ausgewiesen. Für die DMK21 wäre dann allerdings 5,6µ nicht das korrekte Maß für x, weil in den 5,6µ die Zwischenräume bereits enthalten wären. Unter Verwendung der Länge mit Zwischenraum (nennen wir sie y) würde sich das Kriterium für die Anpassung der Kamera an die Optik mehr in Richtung 3x3 Kantenlängen y für den Durchmesser des Airyscheibchens verschieben. Das würde das theoretisch erforderliche Öffnungsverhältnis verkleinern, was ja auch schon in der Diskussion angeführt wurde.

Aus meiner Praxis heraus (und in Übereinstimmung mit anderen Fotografen die teilweise sogar noch größere Öffnungsverhältnisse verwenden) würde ich dennoch für Mond und Planeten auch bei Verwendung von y beim Kriterium 5x5 Pixellängen für den Durchmesser des Airydisks bleiben, ich bekomme mit diesem leichten "Oversampling" einfach die besseren Bilder!

So, damit ist die Nachtschicht beendet, die liegen gebliebene Arbeit mache ich dann morgen, nein, heute Nacht....

Gruß, Peter

 
Hallo Peter,

eben habe ich auch noch einmal in das SONY-Datenblatt zum ICX098 hineingeschaut. Da wird ganz klar unterschieden zwischen „Image size“ und „Chip size“. Unter „Image size“ - das ist natürlich die kleinere Größe, sonst würde sie nicht auf den Chip passen – ist angegeben: „Diagonal 4.5 mm (Type 1/4)“. Bei einem Seitenverhältnis von 4:3 ergibt sich für die Bildhöhe 2,7 mm. Teilt man dies durch 480, so kommt man zu der im Datenblatt angegebenen Pixelweite von 5,6 µm.

In der Marlin ist der SONY-Chip ICX415AL verbaut. Im Datenblatt findet man unter „Image size“ die Angabe: „Diagonal 8 mm (Type 1/2)“. Bei einem Seitenverhältnis von 4:3 erhält man für die Bildhöhe 4,8 mm. Teilt man durch die Anzahl 582 der Pixel in vetikaler Richtung, so ergibt sich die im Datenblatt angegebene Pixelweite 8,3 µm.

All diese Datenblatt-Eintragungen erscheinen konsistent und werden durch unsere „Experimente“ bestätigt.

Es ist natürlich ärgerlich, wenn man sich schon im Sinne einer gründlichen Recherche die Mühe macht, einen „Experten“ zu befragen, und von diesem dann irreführende Auskünfte erhält. Bei dieser Gelegenheit einen herzlichen Dank an Dich für Deine aufopfernde Nachtarbeit in dieser Sache.

Hier noch ein Kommentar zu Deiner folgenden Bemerkung:

Aus meiner Praxis heraus (und in Übereinstimmung mit anderen Fotografen die teilweise sogar noch größere Öffnungsverhältnisse verwenden) würde ich dennoch für Mond und Planeten auch bei Verwendung von y beim Kriterium 5x5 Pixellängen für den Durchmesser des Airydisks bleiben, ich bekomme mit diesem leichten "Oversampling" einfach die besseren Bilder!
Die Feststellung, dass man mit dem „leichten Oversampling“ bessere Bilder bekommt, findest Du ja auf den ersten Blick auch anhand meiner zuvor gezeigten Plato-Gegenüberstellung bestätigt.

Nun kann man aber – und das war ja der Ausgangspunkt der ganzen Diskussion hier – das linke, mit 8,3 µm aufgenommene Platobild vor der Anwendung von Schärfungstools um 50% nachvergrößern und kommt auf diesem Wege zu einem Ergebnis, welches dem unmittelbar mit 5,6 µm, d.h. mit „Oversampling“ aufgenommenen Bild hinsichtlich des Abbildungsmaßstabs und der Detailauflösung nicht nachsteht, siehe hier:


Link zur Grafik: http://www.astro-vr.de/Plato_Vergleich_8.3x1.5vs5.6.jpg


Links sieht man das nachvergrößerte Bild aus der Marlin, rechts das nicht nachvergrößerte Bild aus der DMK.

Ein ganz wesentlicher, zusätzlicher Vorteil dieses Verfahrens besteht darin, dass man bei höherer Lichtstärke aufnehmen kann – hier also bei f/20 statt bei f/30 – und auf diese Weise kürzer belichten kann. Gleichzeitig erfasst man aber auch einen erheblich größeren Bildwinkel, wenn man mit einer Halbzollkamera bei f/20 aufnimmt, im Vergleich zu einer Aufnahme mit Viertelzoll-Chip bei f/30. Der erfasste Bildwinkel ist – hier muss ich meine zuvor gemachte Angabe nach oben korrigieren – dreimal und die Fläche sogar neunmal (!) größer.

Für die Herstellung dieses Mosaiks hätte ich mit der DMK bei f/30 demnach 45 statt – wie hier mit der Marlin bei f/20 – nur 5 Videos aufnehmen, stacken und zusammenfügen müssen.

Wenn man über „optimale Anpassung“ der Videokamera ans Teleskop diskutiert, sollte man solche Aspekte m.E. nicht außer Acht lassen.

Gruß, Jan
 
Hallo Peter,

Du läßt aber nicht locker!
Ich habe diese 2.5x Powermate. Darauf kann man unschwer erkennen, daß die Powermate bei Brennweitenverlängerung sich tatsächlich anders verhält, als Du prognostiziert hast.
Ich gebe Dir vollkommen Recht, daß durch verschieben des Hauptspiegels beim fokusieren des Maksutovs die Brennweite verändert wird. In meinem Fall, weil ich Geräte hinten am Auszug habe, verlängert. Das bestätigt nur meine Messung. Wenn ich die Kombination (Brennweite * Barlow) vergrößere und auf 7084mm bringe, lande ich genau bei 4.4"

Außerdem habe ich soche Art Messungen auch bei vielen anderen Objekten mit und ohne Barlow gemacht. Für mich ich ab sofort klar: Die Angabe der Pixelsize bezieht sich auf die Abstände benachbarter Pixelmittelpunkte. Ganz egal, wie groß nun das Pixel in Wirklichkeit ist. Und das ist genau die Zahl, die wir wissen wollen und die für uns interessant ist.

Gruß,
Peter
 
Hallo!

@ Jan:

Wie Du es darstellst ist es wohl in Ordnung. Ich habe das ja inzwischen auch so vermutet (s. letztes Posting). Mit dem Oversampling bin ich auch vorsichtig, weil sehr viel Licht verloren geht. Ich propagiere daher eher auch ein moderates Öffnungsverhältnis (kurze Belichtungszeit, weniger Rauschen, größeres Bildfeld), wurde aber deswegen im Forum schon moniert, weil Andere eher mehr oversampeln. Letzteres hat natürlich einen Vorteil: Ein Teil des Rauschens hat eine feste "Größe", die nicht mit dem Abbildungsmaßstab wächst. Solches Rauschen lässt sich dann bei großem Abbildungsmaßstab später besser mit einem Rauschfilter von den Nutzstrukturen trennen und beseitigen.

Allerdings sollte man dabei auch im Auge behalten, dass schon die geringste Reduktion des Seeings (und die hat man eigentlich fast immer) die absolute Schärfe ohnehin nicht mehr ermöglicht, und dann ist man in jedem Fall mit einem kleineren Öffnungsverhältnis besser bedient.

Unsere Formel aus SUW: F = 2x/Lambda ergibt für die DMK21 bei 550nm ein Öffnungsverhältnis von 20, das ist sehr realistisch, etliche Forenteilnehmer würden eher ein größeres Verhältnis wählen. Für Deine Kamera mit x = 8,3er Pixeln würde sich damit ein Öffnungsverhältnis von 30 ergeben, was ich für durchaus sinnvoll halten würde, allerdings nur, falls das Seeing mal richtig perfekt ist!

@ Peter:

Hättest Du gleich geschrieben, dass das eine Powermate ist, hätte ich mir eine Menge Arbeit sparen können. Das mit der Powermate geht klar, das Teil habe ich auch gehabt, und es gibt anders als eine normale Barlow keine nennenswerte Veränderung bei weiter entferntem Abstand der Bildebene. Deine Untersuchung ist also korrekt. Ich habe in meinem letzten Posting ja auch dargestellt, dass die Lösung mit 5,6 als Pixeleinheit (incl. der Zwischenräume) trotz anders lautender Beratung über Sony die einzig konsistente Lösung ist.

Ich habe also dazugelernt, dass man sich auch auf die Aussagen von Experten (zu seiner Entlastung muss ich allerdings sagen, dass es ein Kameraentwickler und nicht ein Chipdesigner war) nicht immer verlassen kann, und danke Euch noch mal für die sachliche Diskussion!

Gruß, Peter

 
Zuletzt von einem Moderator bearbeitet:
Aufgrund der mit dem aktuellen Update der Forensoftware eingeführten Änderungen sehe ich mich abschließend doch noch zu einem Hinweis veranlasst.

Die Gegenüberstellung der Bilder in meinem Eingangsposting zu diesem Thread ist in der jetzigen Form eher irreführend als hilfreich, da nämlich das obere Bild mit Clavius nun nicht mehr in dem angegebenen Maßstab von 150%, sondern viel kleiner dargestellt wird.

Mit dem neuen Foren-Update werden sämtliche Bilder, die zuvor mit einer Breite von mehr als 720 Pixeln gepostet waren nunmehr – ohne entsprechenden Hinweis an der betreffenden Stelle ! - auf eine Breite von 720 Pixeln zurückgerechnet, d.h. in einem entsprechend verkleinerten Maßstab dargestellt.

Wer also den Thread zum erstenmal liest, gewinnt einen falschen Eindruck von dem, was da vermittelt werden soll.

An anderer Stelle dieses Forums habe ich bereits meine Meinung zu dieser Vorgehensweise zum Ausdruck gebracht.

Korrekt bleiben nur – wegen der kleinen Bildabmessungen – die beiden letzten Gegenüberstellungen des Kraters Plato.

Noch eine Bemerkung zur Nachvergrößerung: Wenn man das Summenbild aus einem Aufnahmevideo mittels Registax erzeugt, kann man gleich beim Stacken einen größeren Maßstab wählen. Wenn ich das richtig verstehe, werden die Rohbilder bei dem dort angebotenen „Resize“-Vorgang genauer als eine Pixelbreite justiert, und man kommt daher möglicherweise zu einem feiner ausgearbeiteten Endergebnis als mit der einfachen linearen Nachvergrößerung des Summenbilds.

Aus meinem Archiv kann ich an dieser Stelle nur Jupiter zeigen, der - wie die oben gezeigten Bildbeispiele vom Mond - ebenfalls mit der Marlin und 8,3 µm Pixeln bei f/20 aufgenommen wurde. Durch die Anwendung des Resize-Tools in Registax-2 hatte ich direkt ein gegenüber dem Videomaterial um den Faktor 2 vergrößertes Summenbild erhalten und dieses damals auch direkt in Registax mittels der Wavelet-Einrichtung weiterbearbeitet.

Meine neueren, mit der DMK und 5,6 µm Pixeln ebenfalls bei f/20 – immer im Primärfokus meines FH 6“ f/20 – aufgenommenen Jupiterbilder zeigen durchaus keine bessere Detailauflösung.

Im Sinne einer möglichst kurzen Belichtungszeit würde ich deshalb – vielleicht sogar in besonderem Maße – auch bei Planetenaufnahmen bevorzugt mit 8,3 µm bei f/20 arbeiten, bzw. die DMK mit 5,6 µm eher bei f/15 ankoppeln.

Gruß, Jan
 
Hallo Jan!

Deinen Ärger über die Bildbreite kann ich verstehen, meine ganze "Grüne Serie" hochauflösender Mondbilder ist dadurch "versaut" (Über die vielen Stunden Arbeit will ich garnicht reden...), und wer kennt schon die Tricks, die Bilder doch noch mit voller Auflösung zu sehen, ich kannte sie jedenfalls nicht.

Aus meinem Archiv kann ich an dieser Stelle nur Jupiter zeigen, der - wie die oben gezeigten Bildbeispiele vom Mond - ebenfalls mit der Marlin und 8,3 µm Pixeln bei f/20 aufgenommen wurde. Durch die Anwendung des Resize-Tools in Registax-2 hatte ich direkt ein gegenüber dem Videomaterial um den Faktor 2 vergrößertes Summenbild erhalten und dieses damals auch direkt in Registax mittels der Wavelet-Einrichtung weiterbearbeitet.

Meine neueren, mit der DMK und 5,6 µm Pixeln ebenfalls bei f/20 – immer im Primärfokus meines FH 6“ f/20 – aufgenommenen Jupiterbilder zeigen durchaus keine bessere Detailauflösung.

Auf eine meiner Meinung nach sehr wichtige Überlegung möchte ich noch hinweisen: Das Ergebnis deiner sehr guten und schlüssigen Argumentation ist extrem abhängig davon, ob die Vergleichsbilder wirklich bei absolut idealem und bestem Seeing mit einer Spitzenoptik gemacht wurden.

Schon minimale Fehler bei Optik oder Seeing führen zu einer sehr deutlichen Reduktion der möglichen Auflösung im Foto (bei meiner 12" Optik sinkt die Auflösung bei minimalsten Störungen im Seeing sofort von 0,4" auf mindestens 0,8"). Das führt dann aber automatisch dazu, dass bei der Anpassung der Kamera nur noch das halbe Öffnungsverhältnis erforderlich ist! In Bezug auf deine Kamera würden dann statt der von mir berechneten 30 nur noch 15 für das Öffnungsverhältnis erforderlich sein, also sogar weniger als die von dir vorgeschlagenen f20.

Ich glaube Du siehst, was ich damit meine. Es wäre also unbedingt erforderlich zu prüfen, ob auf deinen Vergleichsaufnahmen die feinsten sichtbaren Strukturen auch exakt der theotetischen Auflösung deiner Optik entsprechen. Erst dann ist die Argumentation ganz "wasserdicht". Sollte das nicht der Fall sein, so wären noch bessere Vergleichsbilder erforderlich.

Für unsere 12" Optik und die DMK41 (Pixel x = 4,6) ist nach unserer Formel F = 2x/Lambda mindestens ein Öffnungsverhältnis von F = 17 erforderlich. Erst wenn ich mit 20 arbeite, zeigen die Bilder bei sehr gutem Seeing Strukturen bis 0,4", bei einem geringeren Wert (etwa f13) war diese Auflösung nicht mehr zu erreichen!

Prüfe mal auf theoretische Auflösung in deinen Testbildern! Erst mit einer diesbezüglichen Bestätigung wäre dieser Thread wirklich abgeschlossen!

Gruß, Peter



 
Hallo Peter,

im Grunde verstehe ich wohl, was Du meinst: Nur unter idealen Bedingungen soll Deine Formel gelten, und bei schlechteren Bedingungen reichen bei gegebener Kameraauflösung auch größere Öffungsverhältnisse. Umgekehrt ausgedrückt: Bei meinen Testbildern sieht man noch keinen Qualitätsverlust, weil sie nicht bei perfekten Bedingungen aufgenommen wurden.

Das mag zwar prinzipiell in Ordnung sein. Allerdings glaube ich kaum, dass die idealen Bedingungen einen derart erhöhten Aufwand an Pixeln – d.h. also 25 statt 9 - für die saubere Abbildung eines Airy-Scheibchens erfordern.

Du hast offenbar mit Deiner 12“-Optik die Erfahrung gemacht hast, dass sie unter sehr guten Bedingungen Strukturen von 0,4“ auflöst, und dass diese Strukturen mit der DMK41 und 4,6 µm nur dann auch fotografisch sichtbar gemacht werden können, wenn die Kamera bei f/20 angekoppelt wird. Nach unserer Rechnung müssten ja bei 4,6 µm bereits f/11 ausreichen.

Mir ist in diesem Zusammenhang noch nicht ganz klar, an welcher Art von Strukturen Du bereits solche unmittelbaren Vergleiche hast anstellen können, und welche Rolle in diesen Fällen der Helligkeitskontrast des Aufnahmeobjekts gespielt hat. Vielleicht kannst Du uns hier mal ein Beispiel zeigen?

Im übrigen weiß ich gar nicht, wie ich diese von Dir angesprochene Aufgabe erfüllen kann:

Prüfe mal auf theoretische Auflösung in deinen Testbildern! Erst mit einer diesbezüglichen Bestätigung wäre dieser Thread wirklich abgeschlossen!
Für einen konkreten Vorschlag in dieser Richtung wäre ich Dir sehr dankbar.

Ursprünglich hatte ich ja mit diesem Thread nur zeigen wollte, dass man mit einer 6“-Optik und 8,3 µm Pixelweite bei f/20 unter realistischen Bedingungen hinsichtlich der fotografischen Abbildungsqualität nicht erkennbar schlechter fährt als mit 5,6 µm.

Zugegebenermaßen hatte ich dabei - aus physikalischen Gründen - die Vermutung gewagt, dass diese Erfahrung weitgehend unabhängig von der absoluten Teleskopöffnung gelten sollte.

Wenn Du zeigen kannst, dass bei größeren Optiken – möglicherweise wegen deren besseren Kontrastübertragungsverhaltens – andere Erfahrungswerte und Abtastkriterien gelten, dann würde sich ja vielleicht ein gesonderter Thread mit entsprechenden Bildbeispielen lohnen?

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo zusammen,

ich dachte in meiner Naivität, ich hatte bereits in diesem Plot gezeigt, daß es völlig ausreichend ist, unter optimalen Bedingungen (keine Seeing, 100% perfektes Teleskop) die Auflösung mit 2 Pixel pro Halbwertsbreite der PSF nicht überschreiten zu brauchen.

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/gauss.png

(was ist eigentlich ein nicht-fließendes Bild ???)


Die ohne Rauschen, Seeing, Teleskopfehler usw. Abbildung dieser Figur kann nicht durch nochmehr Pixel verbessert werden. Oder sieht das jemand anders?

Dargestellt sind zwei überlappende PSF (rot und grün), deren Überlagerung die schwarze Kurve ergibt, also ein Struktur auf dem Mond (oder wo auch immer). Das Blaue ist die Quantisierung durch die Pixel einer Kamera.
Das ist das Maximum, was physikalisch aus einem abbildenden Teleskop herauszuholen ist.

Möglicherweise kommt man sogar noch mit weniger als 2 Pixel/HWB aus.

Gruß,
Peter
 
Hallo Jan!

Allerdings glaube ich kaum, dass die idealen Bedingungen einen derart erhöhten Aufwand an Pixeln – d.h. also 25 statt 9 - für die saubere Abbildung eines Airy-Scheibchens erfordern.

Ja, das klingt auch für mich sehr vernünftig, funktioniert aber bei meiner SC Optik nur mit den 25 Pixeln. Der Airydisk ist rund, und wie willst Du ein rundes(!) Scheibchen mit 9 Pixeln wirklich sauber rund(!) darstellen? Unsere Optik zeigt kein ganz ideales Beugungsbild, der erste Ring ist noch recht fett und keinesfalls refraktormäßig. Andererseits liefert die Optik visuell brauchbare Bilder bis 900fach (an irdischen Testobjekten, am Himmel hatte ich das ideale Seeing noch nicht), und löst auch fotografisch runde Strukturen (es geht hier nicht um Rillen) bis zum Limit von 0,4" auf. Unter Auflösen verstehe ich dabei, dass ein Krater auch noch relativ eindeutig als ein solcher zu erkennen ist, und nicht nur aus einem hellen und einem dunklen Pixel besteht.

Testen könnte man (und auch Du) das am Mond, ein ganz grober Überschlag hierzu (eigentlich nicht für A.de gedacht) findet sich im folgenden Bild (aufgenommen mit etwa f23 und der DMK41 bei nicht ganz optimalem Seeing):

Link zur Grafik: http://www.gym-vaterstetten.de/faecher/astro/Aktuell/2008/Aufl_Test.jpg

Wenn man in das Bild zoomt, sieht man den mit Pfeil markierten kleinen Krater mit 5 Pixelbreiten, noch kleinere Krater, die nur 3 Pixelbreiten überdecken, sind nur noch ganz schwach und nicht als Krater erkennbar zu sehen. Mache ich die Aufnahme mit f13, so ist der mit Pfeil markierte Krater auch nur noch drei Pixel breit, und praktisch nicht mehr im Bild zu erkennen (leider habe ich die f13-Bilder damals nach Abschluss der Untersuchung gelöscht). Ich benötige also die 5-Pixelbreite um einen Krater aufzulösen.

Wie Du an einigen Bildern der "Grünen Serie" sehen konntest (vor der 720 Pixel Beschränkung) ist die Optik zumindest für ein SC sehr gut (es ist bis auf die Auskühlprobleme das beste SC das ich bisher hatte), und wie die Aufnahme oben zeigt, ist zumindest dafür F = 2x/Lambda zwingend als Mindestgröße für das Öffnungsverhältnis einzuhalten.

Die Differenzen zu Dir und Peter kommen daher, dass ich unter "perfekter Optik" so etwas wie ein SC verstanden habe, das an der oberen Grenze der Möglichkeiten liegt, wobei ein solches Gerät immer noch weit von einem perfekten Refraktor entfernt ist. Auch habe ich die Definition des Auflösungsvermögens an der Mondfotografie orientiert. Unsere Formel ist also eher an der Praxis orientiert, bei der große Öffnungen eben keine idealen Refraktoren sind und keine ideale PSF aufweisen. Vermutlich haben viele versierte Fotografen (auch hier im Forum) ähnliche Erfahrungen gemacht, und bevorzugen daher weitgehend größere Öffnungsverhältnisse als theoretisch bei einem guten Refraktor erforderlich....

Gruß, Peter
 
Hallo Peter!

Ich habe aus Zeitgründen (Du siehst ja, zu welchen Tageszeiten ich posten muss) deine Diagramme vielleicht nicht genau genug angeschaut, und etwas falsch verstanden, woraus sich folgende Frage ergab:

Warum ungleich helle Punkte? Mache doch mal die grüne und rote PSF gleich hoch. Dann rücke die grüne PSF so weiter nach rechts, dass sich bei der Addition von Rot und Grün zur schwarzen Kurve dort gerade noch ein Doppelmaximum ergibt. Das wären dann zwei gleichhelle Punkte auf dem Mond mit ausreichendem Abstand, um sie gerade noch zu trennen. Dann überlege, wie viele Pixel (bezogen auf die Halbwertsbreite der einzelnen PSF) erforderlich sind, um dieses Doppelmaximum mit der Kamera noch möglichst vollständig (und nicht nur andeutungsweise) zu erfassen.

Im Übrigen finde ich deinen Ansatz mit der PSF sehr elegant.

Gruß, Peter
 
Hallo Peter,

die PSF ist die kleinste Struktur, die man unter den idealsten Bedingungen mit einem Teleskop auflösen kann. Ich habe Dir einen Plot erzeugt, wo zwei gleiche PSF im Abstand einer halben Halbwertsbreite (HWB) überlagert wurden.

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/gauss2.png

Hier erkennt man gut, daß eine Trennung noch möglich ist. Allerdings möchte ich nicht verschweigen, daß die Pixel (blau) gerade optimal zum Bild (schwarz) liegen. Verschiebt man die Pixel um 1/4 HWB, erhält man folgendes Bild:

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/gauss2_0.5.png

Hierauf erkennt man, daß bei ungünstiger Wahl der Pixelpositionen relativ zum Bild, die Auflösung verloren geht.

Eine Wahl von 2.5 Pixel pro HWB, statt 2 Pixel, erfaßt aber auch diesen (und jeden anderen denkbaren) Fall:

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/gauss2.5.png


Damit wird meine Faustformel lauten:

f/D = 3.75 * p[µm]

Damit ist aber nun alles abgedeckt und aufgelöst. Im Normalfall reichen auch 2 Pixel/HWB, da solche Bedingungen, wie ich sie voraussetze, eigentlich nie auftreten werden. Und auch nur im ungünstigsten Fall diese 2 Pixel nicht ausreichen werden. Den oben abgebildeten Fall erreicht man nur, wenn der Kontrast sehr hoch ist, also z.B. bei Doppensternen, auf dem Mond quasi nie. Vielleicht noch auf dem Jupiter, wenn man dort zwei sehr eng benachbarte schwarze Flecken auflösen will.

Trotzdem: Wenn man eine DMK mit 5.6µm Pixelsize hat, reicht eine 2x-Barlow völlig aus, um mit einem Standard SC-Teleskop (C11, C14, usw.) die optimale Auflösung herauszukitzeln.
Wenn man stattdessen eine 2.5x Barlow hat, schadet das natürlich auch nicht, nützen aus dem Aspekt der Strukturauflösung tut es aber auch nicht. Man bracht nur etwas längere Belichtungszeiten bei gleichzeitig kleinerem Bildausschnitt.

Gruß,
Peter
 
Zuletzt von einem Moderator bearbeitet:
Hallo Peter,

das von Dir gezeigte Beispiel ist sehr geeignet, um noch einmal den Unterschied zwischen Auflösungsvermögen und Wahrnehmbarkeit isolierter punkt- bzw. linienförmiger Strukturen deutlich zu machen.

In meiner Eingabe vom 23.11.08 um 23:16 im Rahmen dieses Threads hatte ich das bildliche Beispiel zur Reaktion einer glatten Wasseroberfläche auf eine punktuelle Störung gebracht. Die Störung löst eine Welle aus, wobei die Wellenlänge durch die mechanischen (hydraulischen) Eigenschaften des Wassers vorgegeben ist und nicht durch die Abmessungen des Störkörpers. Der kann ganz erheblich viel kleiner sein als die für die Wasseroberfläche charakteristische Welle.

Dein 12-Zöller erzeugt – analog zum Wasser – Beugungswellen mit einer für das Teleskop charakteristischen „Wellenlänge“ von etwa 0,4 Bogensekunden. Diese Wellen können – je nach Struktur der in das Teleskop eingebrachten „Störung“ (Lichtquelle) – in bestimmten Situationen eher kreisförmig, in anderen Fällen aber auch linien- oder waschbrettförmig in Erscheinung treten. Linien- oder waschbrettförmige Wellen treten immer dann auf, wenn entweder die auslösende Lichtquelle selbst linienförmig gestaltet ist – da hatten wir ja die Diskussion über die Encke-Teilung – oder, wenn ein linienförmiges Array von Punktquellen abzubilden ist, die so eng aufgereiht sind, dass sie als Einzelpunkte nicht mehr aufgelöst werden.

Um diesen Sachverhalt zu veranschaulichen, habe ich in der von Dir gezeigten Gegenüberstellung eine Kraterkette hervorgehoben (gelb), die in dem Orbiterfoto noch deutlich als solche aufgelöst ist, die aber von Deinem Teleskop nur noch als Linie abgebildet wird. Wenn man genau hinschaut, kann man in Richtung der Kraterkette gerade noch eine leichte Helligkeitsmodulation erkennen. Das heißt, wir haben an dieser Stelle gerade das Auflösungsvermögen Deines Teleskops – unter den zur Aufnahmezeit gegebenen Bedingungen – erreicht.


Link zur Grafik: http://www.astro-vr.de/Aufl_Test_gelb_pink.jpg

Anhand eines anderen Fotos von Ptolemaeus habe ich durch Vermessung der gekennzeichneten Kraterkette eine Rasterweite von 0,46 Bogensekunden ermittelt.

Einige typische Waschbrettstrukturen mit der für das Teleskop charakteristischen Wellenlänge habe ich in Rosa hervorgehoben.

Den von Dir mit Pfeil gekennzeichneten Krater würde ich eher in die Kategorie „Einzelstörung“ einordnen. Wenn die resultierende Abbildung kraterförmig erscheint, mag das ja ganz gut „in die Landschaft“ passen. Punktuelle Störungen lösen aber stets eine "zentrische" Beugungswelle aus. Bei der Sternabbildung erscheint dann das im wesentlichen runde Airy-Scheibchen, und bei „punktuellen“ Hell-Dunkel-Übergängen ein kraterartiges „Objekt“.

Deine hier gezeigte Gegenüberstellung scheint mir bislang noch keine zwingende Begründung für die Notwendigkeit des von Dir nach wie vor propagierten „5x5-Pixel-pro-Airy-Scheibchen-Oversamplings“ zu geben. Für mich gilt deshalb immer noch das von Dir selbst und Deinem Ko-Autor Christian in SuW zugrundegelegte, und von uns in der hiesigen Diskussion im wesentlichen bestätigte 3x3-Pixel-Kriterium.

Gruß, Jan


Nachtrag aufgrund der neuesten Eingabe von "peterm"

Die neueste Grafik von "perterm" habe ich erst nach dem Absenden meines eigenen Beitrags gesehen. Sie scheint mir sehr überzeugend und bestätigt eigentlich genau das von Peter Wellmann unterstützte 5x5-Pixel-Kriterium - d.h. also 5 Pixel auf den Durchmesser des Airy-Scheibchens - und damit auch seine Formel F = 2x/λ. Die Begründung ist dann wohl weniger mit den "Zwischenräumen" zwischen den Pixelreihen, sondern eher in der von peterm gegebenen Herleitung zu suchen.

Fazit also im Hinblick auf unsere Themenstellung: Bei Bedingungen am theoretischen Optimum sollte eine 8,3-µm-Kamera eher bei f/30 angekoppelt werden, während bei weniger guten Bedingungen f/25 oder gar f/20 ausreichen.
 
Zuletzt von einem Moderator bearbeitet:
Hallo Jan und Peter,

ich habe diesen Bildvergleich mal um den Faktor 2.5 hochinterpoliert, damit man die Strukturn besser erkennen kann. Das sollte man natürlich besser mit den Originalbildern machen :)

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/aufl_test_pw.png

Klasse, dank der neuen Forensoftware mal wieder verkleinert (Hauptsache, schnell bunte Bildchen herunterladen...)

Link zur Grafik: http://www.mpifr-bonn.mpg.de/staff/peter/Astro/aufl_test_pw_rot.png




Die "Marskanäle", die man auf dem 12" SC Bild sieht, halt ich in den meisten Fällen für Artefakte aus der Bildverarbeitung. Allerdings findet man auch "neue" Krater auf dem SC-Bild, z.B.rechts in der Mitte naben der länglichen Kraterkette. Wären die Waschbrett-Strukturen im SC-Bild echt, müste man im Apollo-Bild auch solche Strukturen sehen, weil sich das ganze ja nach unter skalieren lassen sollte. Dort sieht man aber viel weniger solche "Marskanäle".

Vielleicht sind solche Strukturne bei geringerem Oversampling demnächst verschwunden???

Gruß,
Peter
 
Ja - Peter, ich wollte jetzt nicht gleich wieder von mir aus das Wavelet-Thema aufrollen, obwohl ich bei der Betrachtung des teleskopischen Bildes auch sofort daran gedacht habe.

Natürlich werden die Wavelets am effektivsten durch bereits im Bild angelegte Strukturen angeregt, und das sind in diesem wie auch in vielen vergleichbaren Bildern die von mir hilfsweise so genannten "Beugungswellen" der Optik.

Auch wenn Peter Wellmann bisher noch keine Gelegenheit hatte, die Anwendung von Wavelets im vorliegenden Fall zu bestätigen, nehme ich doch an, dass er diese Tool benutzt hat. Ich selbst arbeite ja inzwischen beinahe ausschließlich ohne die Unterstützung durch Wavelets, d.h. nur mit "aperiodischen" Schärfungstools, eben um eine Hervorhebung der für das Teleskop charakteristischen Beugungswellen zu vermeiden.

Ob nun die Waschbrettmuster mit oder ohne Wavelet-Verstärkung zustandegekommen sind, schien mir bei der Diskusssion zunächst einmal zweitrangig. Mir ging es vorrangig darum, die Existenz solcher Muster überhaupt zu Bewusstsein und sie mit den teleskopischen Beugungserscheinungen gedanklich in Verbindung zu bringen.

Sehr treffend Dein Hinweis, den ich in entsprechender Weise immer aufs neue anbringe, dass nämlich die abzubildenden Strukturen selbst - am Mond oder sonstwo - eine sehr breite Vielfalt unterschiedlich großer Details aufweisen und nicht von Grundmustern einer bevorzugten "Wellenlänge" beherrscht werden wie zahlreiche, insbesondere übervergrößerte bzw. "übersamplete" Teleskopaufnahmen, die hier und in anderen Foren präsentiert werden.

Das sehe ich also im Grunde genau so. Insofern betrachte ich auch Deine Bemerkung als konsequent, ob nicht eine etwas geringere Samplingrate zur Vermeidung von Bildartefakten beitragen kann.

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Hallo Peter!

@ Peter: Vielen Dank für die prompte „Belieferung“ mit den Kurven!

Wenn Du nun die Struktur, die durch die beiden PSF gegeben ist bildhaft (also mit den erforderlichen Grauwerten) auflösen willst, musst Du auch die an der linken und rechten Flanke der Summen-PSF liegenden Kamerapixel mit verwenden, und zwar würde ich sagen mindestens bis zur HWB herab. Damit benötigst Du in deinen Kurven 5 Pixel der Kamera. Das ist mit meinen Überlegungen 100% identisch.

Wenn ich auf dem Mond einen Krater als solchen klar erkennbar abbilden will, reicht ja nicht ein Hell-Dunkel-Sprung. Erst kommt die hell beschienene äußere Seite des Kraterwalls, dann der Schatten innen, dann das Licht innen, dann der dunkle Schatten am abgewandten Kraterwall außen. Um das abzubilden sind mindestens 4 bis 5 Pixel erforderlich. Verwende ich die nicht, so ist der Krater nicht als Krater erkennbar, also nicht aufgelöst.

Damit habe ich den Begriff „Auflösung“ etwas anders als üblich (aber sehr praxisbezogen auf die Mondfotografie) verwendet. Es freut mich nun sehr, dass deine neue Formel mit f/D = 3.75 * x sowie unsere Formel mit f/D = 2x/Lambda (x ist die Pixelbreite) das identische Ergebnis bringen.

@ Jan und Peter:

Das musste ja so kommen! Nun sind die Waveletts und die Artefakte wieder schuld! (Nicht ganz ernst gemeint)

Nein, so einfach ist das nicht! Ich verwende zum Schärfen Giotto, keine Ahnung, was das für Filter sind. Die ominösen Rillenstrukturen sind dabei zuvor noch nie aufgetreten. Erst mit der neuen Optik ist dieses Problem entstanden. Dabei habe ich auch zunächst an die Schärfung gedacht, aber das kann nicht die ganze Miete sein, und zwar aus folgendem Grund:

Ich habe die Optik auf einer Deutschen Montierung, d.h. im Osten bedeutet „Oben“ im Bild am Rohr eine links verdrehte Kamera, im Süden ist „Oben“ im Bild auch wirklich oben bei der Kameralage, im Westen entspricht „Oben“ im Bild einer rechts verdrehten Kamera am Rohr. Das interessante ist nun, dass sich die Richtung der „Rillen“ im Bild im Laufe der Nacht im Bild verdreht, und zwar so, dass sie immer der vertikalen Richtung (senkrecht zum Boden) entspricht. Die Linien können also keinesfalls nur reine Folgen der Schärfung sein:

1. Da ich einen erheblichen Temperaturgradienten im Rohr habe, gibt es Strömungen und Schichtungen, die alle der Schwerkraft folgen, und sich parallel zum Boden orientieren, sie liegen also schräg im Rohr, und wirken wie ein Prisma, dass in senkrechter Richtung zum Boden eine Verlängerung der Strukturen bewirken kann. Interessanterweise finde ich in Aufnahmen, die unmittelbar nach dem Umschlagen von Ost auf West gemacht werden (also Tubus um 180 Grad gedreht), die "Rillenstrukturen" kaum.

2. Eine weitere Möglichkeit ist auch ein ganz banaler Optikfehler, der aber so gering ist, dass er sich erst bei der extrem hohen Auflösung der Bilder bemerkbar macht. Das ist nicht ganz unwahrscheinlich, weil das Beugungsbild der Optik nicht ganz so aussieht, wie es ideal wäre (ich habe seit dem Test die Justierung der Optik auch noch nie untersucht und gegebenenfalls korrigiert). Ich musste damals die Schmidtplatte recht weit seitlich verschieben, um einen maximalen Strehl zu bekommen, was auch auf Mängel in der Mechanik hinweist.

3. Ein gewisser Anteil kann natürlich auch auf die Schärfung zurückgehen, es würde mich also interessieren, welche Filter das vermeiden, und wie ich an diese Software kommen kann. Ich werde dann gerne die Sache bei Gelegenheit überprüfen, aber wie gesagt, Astronomie ist im Moment nicht meine wichtigste Beschäftigung, und ich habe keine Lust das Problem am Rohr momentan weiter zu untersuchen (Isolation, Lüftereinbau etc….).

Ich hoffe, dass wir nun das Thema genügend ausdiskutiert haben, damit wir uns mal wieder anderen Dingen zuwenden können, es war für mich eine sehr interessante Diskussion, bei der (zumindest ich) auch Einiges dazu gelernt habe.

Gruß, Peter

 
Hallo Peter,

über die weitgehend einvernehmliche Lösung der Abtastfrage freue ich mich sehr und – im Hinblick auf Euren Artikel in SuW – auch besonders darüber, dass Eure „5x5“-Empfehlung am Ende Recht behalten hat. Es ist offenbar auch klar, dass diese Empfehlung nur für die denkbar besten Aufnahmebedingungen gilt, die äußerst selten anzutreffen sind. Ansonsten kann ohne erkennbare Verluste an Bildqualität durchaus auch mit geringeren Samplingraten, dafür dann aber mit verkürzten Brennweiten und Belichtungszeiten gearbeitet werden.

Als im wesentlichen gleichwertig für höchste Ansprüche bei optimalen Aufnahmebedingungen wären also die folgenden „Faustformeln“ zu betrachten:

(1) 5x5 Pixel für ein Airy-Scheibchen (Ch. und P. Wellmann in SuW, Juni 2008)

(2) F = 2x/lambda (Ch. und P. Wellmann in SuW, Juni 2008) mit F = Öffnungs- bzw. Blendenzahl, x = Pixelweite und lambda = Lichtwellenlänge (der griechische Buchstabe für „lambda“ wird neuerdings offenbar nur noch in der Vorschau richtig wiedergegeben – habe das schon „angemeckert“)

(3) f/D = 3,75 p[µm] („peterm“ im Verlauf dieser Diskussion) mit f/D = F = Öffnungs- bzw. Blendenzahl und p = x = Pixelweite. Diese Formel gilt für grünes Licht der Wellenlänge 550 nm.

Hier sind die sich aus den Formeln ergebenden F-Werte für einige in diesem Thread genannte Video-Kameras:

AVT „Marlin“ bzw. „Stingray“ F046B mit Sony-Halbzoll-Chip ICX415 und x = 8,3 µm: ca. F = 30 bzw. f/30

TIS DMK-21AU04 mit Sony Viertelzoll-Chip ICX098BL und x = 5,6 µm: ca. F = 20 bzw. f/20

TIS DMK-31AU03 mit Sony Drittelzoll-Chip ICX204AL und x = 4,65 µm: ca. F = 17 bzw. f/17

TIS DMK-41AU02 mit Sony Halbzoll-Chip ICX205AL und x = 4,65 µm: ca. F = 17 bzw. f/17

Wie ich aus neueren Bildberichten hier im Forum entnehme, arbeitet eine zunehmende Anzahl von DMK-Besitzern (monochrom) inzwischen bereits im Bereich von f/20 und liegt damit nach unseren hier gewonnenen Erkenntnissen ganz „auf der sicheren Seite“.

Unter "realistischen" Aufnahmebedingungen kann man mit der DMK ohne sichtbare Verluste durchaus auch bei f/15 – bzw. mit der Marlin bei f/20 – arbeiten. Dabei können die Belichtungszeiten bzw. das Gain zur Verbesserung der Bildqualität auf etwa die Hälfte reduziert werden. Hier spielt natürlich auch die von der Pixelgröße abhängige Sensorempfindlichkeit eine nicht zu unterschätzende Rolle.

Vielen Dank nochmal an alle aktiven und passiven Teilnehmer für das rege Interesse an dieser Diskussion!

Gruß, Jan
 
Zuletzt von einem Moderator bearbeitet:
Status
Es sind keine weiteren Antworten möglich.
Oben