Künstliche Intelligenz

iPhone 18: Apple lässt Samsung offenbar dreilagige Bildsensoren herstellen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ominös hat Apple „eine innovative neue Technologie zur Herstellung von Chips“ angekündigt, „die weltweit noch nie zuvor eingesetzt wurde.“ Entsprechende Chips stellt künftig Samsungs Chipfertigungssparte in Austin, Texas, für Apple her. Sie sollen „die Leistung und Energieeffizienz von Apple-Produkten optimieren, darunter auch iPhone-Geräte, die weltweit ausgeliefert werden.“ Die Ankündigung ist Teil von Apples Plan, 600 Milliarden US-Dollar in den USA zu investieren.

Um welche Fertigungstechnik oder Chip-Art es sich handelt, lässt Apple offen. Beim ersten Lesen könnte das nach einem hochmodernen Fertigungsprozess klingen, etwa mit extrem-ultravioletter Belichtungstechnik samt hoher numerischer Apertur (High-NA EUV). Laut übereinstimmenden Berichten, unter anderem von der Financial Times, soll es sich jedoch nicht etwa um Prozessoren handeln, sondern um Bildsensoren unter anderem für die iPhone-18-Generation. Für die 17er-Reihe sind die Sensoren demnach noch nicht bereit.

„Neue Technologie“ bezöge sich nicht auf besonders feine Chipstrukturen, sondern auf die Sensorbauweise mit mehreren Chipebenen. Dazu passt, dass die Chips in Samsungs älterem Austin-Halbleiterwerk entstehen sollen. Neue Fertigungsprozesse will Samsung im benachbarten Taylor herstellen, wo ein neues Werk entsteht. Bildsensoren benötigen allerdings gar keine besonders feinen Strukturen.

Bildsensoren lassen sich auf verschiedene Weisen gestapelt aufbauen. Apples bisheriger Zulieferer Sony setzt etwa auf bis zu drei Sensorlagen. In den dreilagigen Bildsensoren befinden sich auf der obersten die Fotodioden zum Einfangen der Lichtstrahlen. Darunter sitzt die zweite Lage mit den Pixeltransistoren zum Speichern der Ladung. In der dritten Lage befinden sich die Logikschaltungen zum Umwandeln der Transistorladungen in Bildinformationen. Alle drei Ebenen belichtet Sony auf unterschiedlichen Silizium-Wafern.

Ein weiterer Ansatz ist die Aufteilung der notwendigen roten, grünen und blauen Pixel auf verschiedene Ebenen, um die Lichtausbeute signifikant zu erhöhen. In bisherigen Bildsensoren sitzen die entsprechenden Fotodioden nebeneinander, sodass nur ein Drittel des einfallenden Lichts eingefangen wird. Eine Optimierung der Lichtausbeute würde Apples Versprechen zur verbesserten Energieeffizienz erklären.


(mma)



Source link

Beliebt

Die mobile Version verlassen