Aufbau eines Bildsensors

Aufbau eines Bildsensors
Illustration: Christian Eisenberg

Bildsensoren: So funktionieren sie

Aufbau, Größe und Funktionsweise
09.11.2017

Die Bildqualität einer Kamera wird wesentlich von den eingesetzten Bildsensoren bestimmt. Sie haben auch Einfluss auf viele andere Aspekte des Kamerasystems. Wir erklären die Grundlagen

 

Schichtarbeit

Bevor das Licht auf die Fotodioden trifft und dort in elektrische Ladung gewandelt wird, passiert es noch andere Teile der Sensoreinheit: Ein Infrarot-Sperrfilter verhindert beispielsweise das Auftreten von Falschfarben. Viele Kameras sind außerdem mit einem optischen Tiefpassfilter ausgestattet, das hohe Frequenzen dämpft, vor allem um die Gefahr des Auftretens von Moiré-Artefakten zu verringern. Diese entstehen, wenn es zu Interferenzen zwischen dem Pixelraster des Sensors und Mustern im Bild kommt, beispielsweise bei feinen Strukturen von Textilien oder in der Architektur.

Immer mehr Hersteller lassen das Tiefpassfilter allerdings inzwischen weg, um die maximale Auflösung aus dem Sensor herauszuholen. Dafür spricht auch, dass angesichts der hohen Pixeldichte aktueller Sensoren Moirés nur noch bei sehr feinen Strukturen sichtbar werden, die seltener vorkommen und unter Umständen schon vom Objektiv nicht mehr aufgelöst werden – Moirés treten eher bei besonders hochwertigen Objektiven auf, die im optimalen Leistungsbereich betrieben werden. Darüber hinaus können Moirés auch softwareseitig reduziert werden – bei JPEGs in der Kamera, bei Raws im Konverter am PC.

Zwischen Infrarot- und Tiefpassfilter befinden sich zwei weitere Elemente des Sensors: Die Mikrolinsen haben die Aufgabe, das Licht so zu bündeln, dass es möglichst präzise auf die Fotodioden fällt. Außerdem befindet sich bei Farbsensoren direkt über den Fotodioden eine mosaikartige RGB-Filtermatrix (nach dem Kodak-Ingenieur Bryce E. Bayer auch Bayer-Matrix genannt). Sie sorgt dafür, dass pro Pixel jeweils eine Grundfarbe des additiven Farbmodells erfasst wird, also Rot, Grün oder Blau. Die Mischfarben der einzelnen Pixel werden dann nach der Aufnahme aus den Nachbarpixeln berechnet – man spricht von Farbinterpolation oder „Demosaicing“.

x_trans_sensoren.jpg

X-Trans-Sensor

Die X-Trans-Sensoren von Fujifilm nutzen eine andere Farbmatrix als herkömmliche Sensoren. Auf dem Sensor sind Autofokus-Pixel mit Phasendetektion integriert

1 Mikrolinsen
2 X-Trans-Farbfilter
3 L/R-Lichtfiltermaske
4 Fotodioden
5 Phasendetektionspixel

© Fujifilm

Leica und Hasselblad integrieren in einige Kameras auch reine Schwarzweiß-Sensoren, bei denen die Farbfilter weggelassen werden. Dies hat den Vorteil, dass die Empfindlichkeit des Sensors steigt, da die Farbfilter Licht schlucken. Die Aufnahmen werden außerdem etwas schärfer, weil die Farbinterpolation entfällt und kein Tiefpassfilter zum Einsatz kommt.

_______________________

Sensorgröße, Schärfentiefe und kleinbildäquivalente Blende

Die Schärfentiefe beschreibt die Ausdehnung des Schärfebereichs vor und hinter dem Motiv, auf das fokussiert wird. Sie ist im Wesentlichen von zwei Faktoren abhängig: Dem Abbildungsmaßstab und der Größe der Blendenöffnung. Es gilt: Je größer der Abbildungsmaßstab und je größer die Blendenöffnung, umso geringer ist die Schärfentiefe.

Daraus ergibt sich, dass größere Sensoren eine geringe Schärfentiefe zur Folge haben. Wenn Sie beispielsweise ein Oberkörperportrait aufnehmen, so ist bei identischem Bildausschnitt das Abbild auf einem Vollformatsensor deutlich größer als auf einem 1-Zoll-Sensor – sprich der Abbildungsmaßstab ist beim Vollformat größer und damit die Schärfentiefe bei gleicher Blende geringer.

geringe_schaerfentiefe.jpg

Schärfentiefe Sensor

Eine geringe Schärfentiefe ist auch mit kleinen Sensoren (hier 1/1,8 Zoll) möglich, wenn es sich um Nahaufnahmen kleiner Motive handelt

© Andreas Jordan

In Kombination mit einem einigermaßen lichtstarken Objektiv entstehen so mit Vollformatkameras „professionell“ wirkende Aufnahmen, bei denen sich das Portrait angenehm vom unscharfen Hintergrund abhebt. Um den gleichen Effekt mit einem kleineren Sensor zu erzielen, benötigen Sie ein lichtstärkeres Objektiv mit einer größeren relativen Blendenöffnung.

Die Umrechnung erfolgt wie bei der Brennweite über den Crop-Faktor (man spricht auch von einer kleinbildäquivalenten Blende). Um den gleichen Effekt wie mit Blende f/2,8 am Vollformat zu erzielen, benötigen Sie an einer APS-C-Kamera Blende f/1,8 und an einer Micro-Four-Thirds-Kamera Blende f/1,4. Schon beim 1-Zoll-Sensor bräuchte man ein in der Praxis nicht verfügbares Objektiv mit Blende f/1, bei noch kleineren Sensoren landet man bei utopischen f/0,5 oder größer.

_______________________

Zukunftsaussichten

Eine relativ neue Entwicklung stellen sogenannte Stacked-CMOS-Sensoren dar. Dabei wird schneller DRAM-Speicher in die Sensoren integriert, was die Auslesegeschwindigkeit erhöht. Als erstes hielt diese Technologie Einzug in die kleinen Smartphone-Sensoren.

Sony hat sie 2015 erstmals in Kompaktkameras mit 1-Zoll-Sensoren (RX100 IV und RX10 II) und vor kurzem in die Vollformatkamera Alpha 9 integriert. Das schnelle Auslesen ermöglicht in der Alpha 9 Serienaufnahmen mit 20 Bildern/s oder 5fach-Zeitlupen mit 120 Bilder/s in Full-HD. Für Smartphones hat Sony sogar einen Stacked-CMOS-Sensor angekündigt, der Superzeitlupen mit 1000 Bildern/s in Full-HD schafft.

Mehr oder weniger große Modifikationen der herkömmlichen Sensoren haben Fujifilm und Sigma vorgenommen. Fuji hat für seine X-Trans-Sensoren eine eigene Farbfiltermatrix entwickelt, die zwar auch Rot, Grün und Blau verwendet, diese Farben aber in einem größeren Raster (6 x 6 statt 2 x 2) anordnet, was Moirés reduzieren soll. X-Trans-Sensoren kommen daher grundsätzlich ohne Tiefpassfilter aus.

foveon_sensoren.jpg

Foveon-Direktbildsensoren

Bei den Foveon-Direktbildsensoren von Sigma werden die Farben nicht über nebeneinanderliegende Pixel ermittelt, sondern mit Hilfe übereinanderliegender Farbschichten

© Sigma

Ebenfalls auf das Tiefpassfilter verzichten die Foveon-Direktbildsensoren von Sigma. Sie sind in drei RGB-Farbschichten aufgebaut, sodass die Farbe nicht aus nebeneinander liegenden Pixeln interpoliert werden muss, sondern pro Flächenpixel die volle RGB-Information zur Verfügung steht. Im Test erreichen die Sigma-Sensoren extrem hohe Auflösungen, rauschen aber deutlich stärker als Bildwandler mit Bayer-Matrix.

Aktuell werden herkömmliche Bildsensoren eher langsam weiterentwickelt, es existieren aber auch Ansätze, die größere Fortschritte versprechen. Das kalifornische Unternehmen InVisage hat beispielsweise schon 2010 die Entwicklung eines QuantumFilm-Sensors angekündigt. Statt herkömmlicher Fotodioden nutzt er Nanopartikel mit Halbleitereigenschaften, die als Filmschicht auf den Sensor aufgetragen werden und die gesamte Sensoroberfläche lichtempfindlich machen. Einsatzbereich sollen unter anderem Smartphones und Videokameras sein, bisher ist uns aber kein Produkt bekannt, das den InVisage-Sensor einsetzt. Einen ähnlichen Ansatz verfolgt der organische Sensor, dessen Entwicklung Fujifilm und Panasonic 2013 angekündigt hatten – auch er hat es noch nicht zur Marktreife gebracht.

gekruemmter_sensor.jpg

gekrümmter Sensor

Sony-Patent für einen gekrümmten Sensor. Das Objektiv kann einfacher konstruiert werden und trotzdem ist die Abbildungsqualität vor allem am Bildrand besser

© Sony

Ebenfalls seit längerem in der Diskussion sind gekrümmte Sensoren. Sie sollen die Bildfeldwölbung eines Objektives durch eine konkave Krümmung der Sensorfläche ausgleichen und so eine bessere Auflösung, vor allem am Bildrand, erreichen – und das bei einfachen und kompakten Objektivkonstruktionen. Den ersten bekannten Prototypen eines Sensors hat Sony entwickelt – Bildbeispiele wurden schon 2014 veröffentlicht. Vor kurzem hat das französische Unternehmen CEA-LETI einen ähnlichen Sensor mit annähernd Vollformatabmessungen (32 x 24 mm) vorgestellt, der in Teleskopen zum Einsatz kommen soll. Auch Microsoft arbeitet im Rahmen des Projekts Vermont an einer entsprechenden Technologie und diverse Hersteller haben Patente für gekrümmte Sensoren (beispielsweise Apple und Canon) bzw. dazu passende Objektive (Nikon).

Das Hauptproblem scheint zurzeit darin zu bestehen, dass der Sensor nur für die Bildfeldwölbung einer konkreten Festbrennweite korrigiert werden kann und somit schlecht für Zooms und Wechselobjektive geeignet ist. Er dürfte also zunächst in Smartphones oder Kompaktkameras Einzug halten.

_______________________

Dieser Artikel ist in unserer Ausgabe fotoMAGAZIN 10/2017 erschienen. Zur Einzelheftbestellung gelangen Sie hier.

Seite 2 von 2
Seite 1
Seite 2
Sie können bis zu drei Kameras vergleichen, um eine andere auszuwählen, entfernen Sie eine aus dem Vergleich.
Andreas Jordan
Über den Autor
Andreas Jordan

Andreas Jordan ist Mediendesigner und arbeitet seit 1994 als Redakteur und Autor mit den Schwerpunkten Multimedia, Imaging und Fotografie für verschiedene Fach- und Special-Interest-Magazine (u. a. Screen Multimedia, Computerfoto, MACup). Seit 2003 ist er Redakteur beim fotoMAGAZIN und leitet dort seit 2007 das Ressort Test & Technik.