SONY "stacked sensor"

elythomaslumber

Aktives Mitglied
Moin,

das klingt auf jeden Fall interessant, wenn sich die lichtempfindliche Fläche bei gleicher Pixelgröße verdoppelt ist das sicher nicht von Nachteil. Die Frage ist, in welchen Formaten das nun gebaut wird und ob sich das Verfahren auch für größere Sensoren eignet. Auf jeden Fall ist das ziemlich aufwändig = teuer, wie ich vermute.

CS
Jörg
 
Hmmm, vielleicht ist das für die billigen Smartphonesensoren innovativ.
Aber wie hier in dem Link beschrieben ist der Schritt schon beim Wechsel der Sony-Generation EXMOR auf EXMOR RS etc. vollzogen worden.
Neuere Astrokameras sollten das somit schon haben. Sonst wäre ein QE von bald auch 90% z.B. beim IMX585 wohl kaum möglich.

CS
Erik
 
Ja, liest sich in der Tat so:
In this new design, the sensor circuitry for each pixel is arranged below the silicon substrate instead of beside it.

Dann frage ich mich aber, warum im HEISE Artikel zum Abschluss folgendes steht:

Bemerkenswert ist, dass weder Nikkei noch Sony dem Sensor bisher einen Namen gegeben haben, und von dem interessanten Bauteil seit Monaten kaum zu hören war. ...
Exklusiv dürfte Apple den Chip nicht haben, denn laut Bericht soll Sony den Sensor 2023 auch anderen Smartphone-Herstellern zur Verfügung stellen. Von anderen Einsatzbereichen als Handykameras ist bisher keine Rede.


Möglicherweise ein anderer Zweig der ursprünglichen Idee?
 
Aber wie hier in dem Link beschrieben ist der Schritt schon beim Wechsel der Sony-Generation EXMOR auf EXMOR RS etc. vollzogen worden.
Neuere Astrokameras sollten das somit schon haben. Sonst wäre ein QE von bald auch 90% z.B. beim IMX585 wohl kaum möglich.

CS
Erik

So wie ich die Technik verstehe bezieht sich bei der EXMOR RS Technik das S für stacked nur auf die Schaltung und den Speicher, der eigentliche Transistor ist dabei nach wie vor neben der Photodiode angeordnet gewesen. Die neue Technik (die auch Sony als neu anpreist mit Datum 16.12.2021, EXMOR RS gibt es 2012) läßt auch diesen Transistor im Untergrund verschwinden, also sollte sich durchaus ein erheblicher Helligkeitsgewinn ergeben: Die 90% beziehen sich ja nur auf die effektive Fläche, also die Photodiodenfläche, nicht auf die Gesamtfläche des Sensors !
 
Dann wäre interessant, wieviel Platz der Transistor bis jetzt eingenommen hat. Auf den Schemazeichnungen wird das ja immer recht schmal gehalten. Daen habe ich dazu keine gefunden.
Wenn viel Fläche für die Photodiode frei würde, wäre die nächste Generation großer Sensoren natürlich sehr interessant.
 
Hab den Thread ueberlesen.

Hier ein alternativer, guter Ueberblick ueber die Entwicklung der Sony CMOS Exmore Sensoren:

Wie Erik bereite vermutet verwenden viele von uns diese Technologie bereits, denn die neueren Sony CMOS Sensoren, die fuer die Astrofotografie in Frage kommen sind inzwischen bereits backside-illumanated und stacked (6th gen Exmore) wie Z.B. der IMX571, IMX455

Noch nicht stacked sind z.B. immer noch beliebte Sensoren wie der IMX290, IMX294, IMX410, IMX533, ...

Die Telefon CMOS-Sensoren sind groesstenteils noch FLI-Sensoren, da dort ein ganz anderer Kostendruck herrscht und die Sensoren nicht auf volle Empfindlichkeit getrimmt sind, sondern fuer 200E Phone-Gesammtpreis bei Tageslicht TikTok-Videos aufgenommen werden muessen/sollen.
Gruss & CS
 
Oben