Es gibt sie wie Sand am Meer und da kommen sie auch her. Silizium, eines der häufigsten Mineralien auf und in der Erdkruste ist der Stoff, aus dem digitale Träume entspringen. Um genau zu bleiben, wird Silizium auf 1420 °C erhitzt, geschmolzen und dann daraus - beginnend mit einem kleinen Impfkristall - ein sogenannter Einkristall (Monokristall) gezogen. Das heute noch übliche Verfahren dafür wurde in einem der Labors von AEG vom polnischen Chemiker Jan Czochralski (1885–1953) durch eine Unachtsamkeit entdeckt. Der gute Mann tauchte 1916 seine metallische Schreibfeder aus Versehen in einen Tiegel mit geschmolzenem Zinn statt ins Tintenfass und wunderte sich dann beim Herausziehen über den kristallinen Zinnfaden an seiner Feder. Manchmal braucht der Fortschritt eben auch schusseliges Personal um Fahrt aufzunehmen.
Das makroskopische, homogene Kristallgitter liefert die perfekt geeignete, halbleitende Basis für integrierte Schaltkreise (ICs). Damit es damit direkt scheibchenweise in die Produktion gehen kann, wird kein hochreines Silizium verwendet, sondern eine mit Elementen der 3. oder 5. Hauptgruppe des Periodensystems verunreinigte Schmelze. So sind die kleinen Scheibchen (Wafer) bereits vordotiert und haben die idealen Eigenschaften für den jeweiligen Verwendungszweck. Das Einbringen von Stoffen wie Bor, Phosphor oder Aluminium macht das Silizium erst zum steuerbaren Halbleiter und regelt u.a. Sperrschichtbreite und Widerstand.
Mittlerweile gibt es auch organische Halbleiter für organische Leuchtdioden (OLEDs), Solarzellen (OPVs), Transistoren (OFETs), Biosensoren, Wearables und druckbare Elektronik, aber bleiben wir beim Klassiker. Der macht immerhin (noch) 80-85% des Markts für Halbleiter aus. Natürlich wird sich das in den nächsten Jahren stark zugunsten der organischen Konkurrenz ändern, auch photonische Chips sind schon am Start und Quantenrechner bringen wieder völlig andere Ansätze. Der Oldtimer, um den es in diesem Artikel geht, rollt aber weiter, ganz nach dem Motto "Alt, aber nicht umzubringen".
Röhren und Transistoren
Bevor Transistoren aufkamen, nutzte man Elektronenröhren zur Verstärkung, Schaltung und Signalverarbeitung. So wie auch heute durch das Anlegen von elektrischen Ladungen der Widerstand im Schaltelement gesenkt oder erhöht werden kann, erledigte in diesen Vakuumröhren ein Gitter zwischen beheizter Kathode und Anode diesen Job (3 Anschlüsse = Triode). Diese Erfindung geht zurück auf den Amerikaner Lee De Forest (1873-1961), der 1906 die erste Triode, die Audion-Röhre entwickelte. Die ersten Rechner, die damit arbeiteten, stammen aus den späten 30ern und frühen 40ern. Dazu zählen: der Atanasoff-Berry Computer (1939), Colossus (1943-44) und der ENIAC (1945). Der konnte, ausgestattet mit 17000 Röhren und mit einem Gewicht von 27 Tonnen kein echtes Leichtgewicht, 5000 Additionen pro Sekunde durchführen.
Der deutsche Erfinder Konrad Zuse (1910-1995) verwendete für seinen Z1 (1938) noch rein mechanische Schalter, tauschte diese aber bis zum Z3 (1941) gegen Relais, elektromechanische Schalter, die zu dieser Zeit auch in Telefonanlagen eingesetzt wurden. Der Z3 gilt als erster funktionstüchtiger, vollautomatischer, programmgesteuerter und frei programmierbarer Rechner der Welt.
Die theoretischen Grundlagen für deren Nachfolger, eine platz- und energiesparende, weniger fehleranfällige Alternative, existierten bereits seit 1925, als Julius Edgar Lilienfeld (1882-1963) mehrere Patente für Schaltelemente anmeldete, die den Eigenschaften eines modernen Feldeffekttransistors (FET) bereits sehr nahe kommen. Der Begriff Transistor (transfer resistor) für ein elektronisches Halbleiter-Bauelement zum Steuern von (zumeist niedrigen) elektrischen Spannungen wurde aber erst 1948 vom amerikanischen Ingenieur John R. Pierce (1910-2002) geprägt. Zu diesem Zeitpunkt waren auch bereits real existierende Schaltungen auf Halbleiterbasis im (zumeist experimentellen) Einsatz. Bis 1948 bezeichnete man die stets weiterentwickelten Trioden als Dreielektrodenverstärker, Kristallverstärker, Festkörperverstärker oder Halbleiterverstärker.
Doppelspitzendioden (Duodioden) gab es auch schon, Basis waren polykristallines Silizium und Germanium. Beim Experimentieren damit entdeckte Herbert Mataré, als er bei Telefunken an der Entwicklung eines Funkmess-Systems arbeitete, dass die Spannung an einer Diode die eigentlich davon unabhängige zweite Diode mitbeeinflusst. Das lieferte die Grundidee für den späteren Bipolartransistor (Nobelpreis Physik 1956 für Bardeen,Shockley und Brattain). Dieser ist heute noch im Einsatz, im Gegensatz zur instabilen, unpraktischen Duodiode und der damals den Markt dominierenden Konkurrenz durch die Elektronenröhre. Der Tenor der Fachwelt sah die Zukunft eindeutig nicht in der Halbleitertechnik... Schwarmdummheit (auch in der marktorientierten Wissenschaft) ist kein neues Phänomen. Sie schafft aber immerhin neue (Markt-)Lücken für kreative und wirklich innovative Köpfe.
Integration
Es folgten in den 50ern Weiterentwicklungen u.a. bei Texas Instruments und den Bell Laboratories und Röhren wie Dioden wurden bereits jeweils im Verbund in einzelne Bauteile integriert um Platzbedarf, Produktionskosten und Stromaufnahme zu verringern. Die Röhren fanden in Mehrsystemröhren zueinander, aus mehreren Transistoren wurde auf einer Leiterplatte eine einzige Schaltung. Der deutsche Erfinder Werner Jacobi (1904-1985) ließ sich den auf diese Weise integrierten Schaltkreis bereits 1949 patentieren, interessierte aber leider niemanden. Tatsächlich entwickelt und gebaut wurde der erste integrierte Schaltkreis erst 1958 von Jack Kilby (1923-2005), der bei Texas Instruments arbeitete und für diese Entwicklungsarbeit im Jahr 2000 - nicht wirklich zeitnah - auch den Nobelpreis für Physik erhielt.
Als zweiter Vater des integrierten Schaltkreises und damit des Mikrochips gilt zusammen mit Kilby Robert Noyce (1927-1990), auch als "Bürgermeister des Silicon Valley" oder als Gründer von Intel bekannt. Warum man Jacobi nicht dazuzählt, liegt sicher auch daran, dass er nicht wie Noyce oder Kilby für Billionen (ja, 1000 Milliarden) an Umsatz steht. Robert Noyce arbeitete 1959 noch bei Fairchild Semiconductor, als es ihm gelang den ersten monolithisch gefertigten integrierten Schaltkreis herzustellen. Er meldete unabhängig von Kilby ein Patent an, das mit der neu entwickelten Planartechnik nicht nur einzelne Transistoren, sondern ganze Schaltungen auf einem Silizium-Substrat (Chip) unterbrachte. Dieses Patent beinhaltete sowohl Diffusionsprozesse (siehe weiter unten) als auch fotolithografische Verfahren für die zukünftige industrielle Serien- und später Massenfertigung. Diese kam in den 60ern auch durch die Nachfrage seitens des US-Militärs und der NASA immer besser in die Gänge.
1968 gründete Robert Noyce zusammen mit Gordon Moore (1929-2023) den heutigen Chipgiganten Intel. Deren erstes Produkt Intel 4004 erschien im selben Jahr wie der TMS 1000 von Texas Instruments (beide 4-bittig) und der CADC, der Central Air Data Computer (20-Bit intern/16-Bit extern) von Garrett AiResearch (alle 1971). Gilt der Intel 4004 als erster kommerzieller Mikroprozessor, der eigentlich für den Einsatz in Taschenrechnern konzipiert war, ist der TMS 1000 der erste vollintegrierte Mikrocontroller und fand seinen Weg in Spielzeug und Haushaltsgeräte. Der CADC wurde von Anfang an speziell für den Flugcomputer im hollywoodtauglichen Abfangjäger F-14 Tomcat ("Top Gun") entwickelt, um damit am Himmel über Vietnam, Irak, Serbien, Afghanistan usw. klarzumachen, wie man "westliche Werte" richtig buchstabiert.
Gordon Moore ging auch als Urheber von "Moore's Law" (1965) in die Geschichte ein. Es lautet: die Anzahl der Transistoren in integrierten Schaltkreisen verdoppelt sich etwa alle zwei Jahre, bei annähernd konstanten Kosten. Das gilt im Großen und Ganzen bis heute, wird aber durch physikalische Grenzen (die Größe von Transistoren nähert sich immer weiter der von einzelnen Atomen) und wirtschaftlichen Faktoren (gestiegener Aufwand macht Lithografie immer teurer) etwas gebremst.
Massen an Chips
Das Prinzip der Herstellung dieses, von allen technischen Erfindungen am weitesten verbreiteten, Wunderwerks ist bis heute dasselbe. Obwohl - präziser formuliert - ist es eigentlich der Transistor, der die am häufigsten anzutreffende Erfindung auf diesem Planeten darstellt. Wird die Zahl an Mikrochips, die bisher weltweit produziert wurden, auf mindestens 100 Billionen (also 100.000 Milliarden) geschätzt, darf gerne vom geneigten Leser hochgerechnet werden, wie viele Transistoren darauf verbaut sind. Kleiner Tipp: auf aktuellen Prozessoren und Grafik/KI-Beschleunigern befinden sich mindestens 100 Milliarden Transistoren auf einem einzigen Chip. Mein mit künstlicher Intelligenz gesegneter Kalkulator spuckt bei der Hochrechnung aller je verbauten Transistoren als konservative Schätzung (bei 10 Millionen Durchschnitt pro Chip) die unglaubliche Summe von 10²¹ Transistoren, also eine Zahl mit 21 Nullen oder kurz gesagt eine Sextillion aus. Wie gesagt, der freundliche digitale Assistent betont sogar, dass diese Rechnung sehr konservativ angesetzt sei, wahrscheinlich sind es sogar bedeutend mehr. Anzahl Sterne in der Milchstrasse: gerade mal 100-400 Mrd. (10¹¹ bis 4×10¹¹). Gesamtzahl der Sterne des Universums: 10²² = unsere Transistoren x 10, das nenne ich einen echten Verkaufsschlager!
Wo kommen die alle her?
Ist draußen die Welt auch noch so zugemüllt, ist es in den Kreißsälen unserer kleinen Lieblinge aus Silizium, den Reinräumen, angenehm steril und wohltemperiert. Ein Operationssaal entspricht dagegen eher einem Hobbykeller. Je nach Verwendungszweck gibt es unzählige Produktionsverfahren. Ein ehemaliger Reinraumarbeiter (Operator) schildert exemplarisch einen heute wahrscheinlich als antiquiert geltenden typischen Herstellungsprozess, für den er persönlich zertifiziert wurde: zur Taufe dürfen die Wafer in Diffusionsöfen bei rund 1000°C bei Unterdruck stundenlang eine Rostschicht aus Siliziumoxid aufbauen - durch kontrollierte Oxidation in einer Atmosphäre aus Sauerstoff und Wasserdampf.
Nach einer Reihe an Schichtdickenmessungen wird diese Schicht wieder auf ein gewünschtes Maß weggeätzt. Zur Dotierung kommen je nach gewünschtem Chip-Typ Borsäure oder Phosphoroxychlorid zum Einsatz. Als Träger und zur Spülung gönnen sich die Scheibchen eine Argon- oder Stickstoffatmosphäre. Als Ätzmittel dienen Flusssäure und ähnlich spannende Flüssigkeiten. Früher noch manuell mit Schutzkittel und Pinzette, geschieht heute in modernen Anlagen alles vollautomatisch - Koffer voller Wafer rein in die Jukebox, der mechanisch-hydraulische Greifarm mit Saugnäpfen kümmert sich ab da um die Kleinen.
Zurück zur Methode von Anno dazumal, an vielen Orten laufen schließlich noch die alten Anlagen. Nach erfolgter Wäsche der frisch geschlüpften Wafer bekommen sie in riesigen Lithografie-Anlagen ihre Portion Photolack. Per Spin-Coating aufgebracht, folgt anschließend die gesunde Belichtung bei der durch verschiedene Masken Stellen frei bleiben - die Blaupause für weiteres Ätzen, Reinigen, im Ofen backen, in Implantoren stecken, wo Bor- oder Phosphor-Ionen in die aufgebrachte Struktur geschossen werden. Die ganze Prozedur wiederholt sich Schicht für Schicht, ständig unterbrochen durch Qualitätsprüfungen, bis der fertige Wafer mit dutzenden, meist hunderten Chips on board, nach wochenlanger Wanderschaft zwischen den immer gleichen Abteilungen als Erwachsener zur Selektion der brauchbaren Chips auf Makellosigkeit geprüft wird.
Dann wird er vollautomatisch zersägt, die guten Chips wurden vorher markiert und kommen dabei ins Kröpfchen, die schlechten ins Töpfchen. Als absolut höchstes Gut, als Jagd nach dem Heiligen Gral, gilt für die FAB-Leitung stets der Yield, das Verhältnis zwischen brauchbaren und kaputten Chips. Die können, wenn wenigstens eingeschränkt funktionsfähig, immerhin noch in mindere und billigere Produkte eingebaut werden. Man kann zwar nicht vom Montags-Chip sprechen - dafür ist er zu lange in der fehleranfälligen Fertigung unterwegs - aber Königs- und Ramschklasse existieren auch hier. Kommt Qualitätsklasse A in die Luxuskarosse, ist Klasse C noch in der Waschmaschine zu gebrauchen.
Einpacken und Beinchen dran
Der brauchbare Chip (Die) ist noch nackt und muss zuerst per Sinterverfahren oder mit Silber-Epoxid am sogenannten Leadframe fixiert werden. Dann bekommt er seine drahtigen Metallbeinchen für's Bonding oder nur lötkugelbasierte Flip-Chip-Kontakte. Damit ihm nix passiert, wird er bei der Encapsulation in Kunststoff gegossen oder in Keramik eingelötet. Sonst wird er nass, schmutzig, korrodiert oder leidet unter Stößen. Außerdem mag er keine starken Elektro- oder Magnetfelder und auch keine neugierigen Blicke der Konkurrenz. Anschließend bekommt er noch sein Namensschildchen aufgedruckt oder reingelasert, das Marking, mit Typenbezeichnung, Batch-Nr. und Datumscode. Beinchen noch in Form bringen und dann ab zum letzten Kurzschluss-, Funktionalitäts- oder Burn-in-Test. Hat er das gesamte Assembly gut überstanden, freut sich der - Aktionär.
Kleiner, schneller, mehr
Vom 12 mm² kleinen 4-Bitter Intel 4004 (2.300 Transistoren) aus dem Jahr 1971 hatten theoretisch zwischen 150 und 170 auf einem Wafer (2 Zoll oder 50,8 mm Ø) Platz. Je nach Yield blieben davon 100-120 funktionierende Dies übrig. Strukturbreite 10 Mikrometer.
Intels Pentium (1993) besaß bereits 3,1 Mio. Transistoren, der Wafer hatte 6 Zoll bei einer Strukturbreite von 0,8 Mikrometer und es hatten 296 Dies pro Wafer Platz, der Yield war aber mies, so blieben im Schnitt nur 40-60 brauchbare davon über.
Der Intel Core 2 (2006) konnte bereits mit 291 Mio. Transistoren aufwarten, der Wafer maß 8 Zoll und hatte eine Strukturbreite von 65 Nanometer. Von den theoretisch 400 Dies pro Wafer waren im Schnitt zwischen 250-300 brauchbar.
Apples M1 (2020) integrierte 16 Mrd. Transistoren, der Wafer wuchs auf 12 Zoll. Strukturbreite 5 Nanometer. Die theoretische Anzahl an Dies betrug 620, die Ausbeute bei erstaunlichen 500-520.
Apples M3 Ultra erhöhte die Anzahl der Transistoren auf 184 Mrd., die Wafergröße blieb gleich, die Strukturbreite schrumpfte leicht auf 3 Nanometer. Hatten rund 140 Dies am Wafer Platz überlebten im Schnitt zwischen 100 und 120 davon.
Monsterchip Cerebras WSE-3 (2025) braucht die gesamte Fläche eines 12-Zoll-Wafer (5 Nanometer), verfügt über 900.000 Kerne und 4 Billionen Transistoren und wird für Deep Learning und KI-Training verwendet. In Hyperscale-Rechenzentren werden mehrere dieser Biester zusammengeschalten - sowas hat niemand zuhause im Wohnzimmer.
Die immer kleineren Strukturbreiten erlauben, niedrigere Spannungen und damit mehr Effizienz und höhere Taktzahlen. Einen Pferdefuß bei der Lithografie-Technik hat Mutter Natur auch noch eingebaut: bei Licht unterhalb von 193 Nanometer (UV) wird es durch Absorption und das Fehlen transparenter Materialien immer schwieriger die Belichtung und geeignete Maskierung zu bewerkstelligen. Das geht längst nur mehr mit extrem aufwendigen Tricks und Verrenkungen, schließlich liegt die Wellenlänge des Lichts (sichtbar: Violett 380 nm - Rot 780 nm) bereits deutlich über den aktuellen Strukturbreiten. Mit UV-Licht sind Chips mit 65 nm möglich, mit extrem ultraviolettem Licht (EUV 13,5 nm) ist eine Belichtung für Strukturen unter 10 nm möglich, der Aufwand steigt aber enorm. Zur Zeit ist die niederländische Firma ASML die einzige, die solche Belichtungsmaschinen bauen kann. Wobei die Angaben der Strukturbreiten ab 32 nm mit den tatsächlichen Breiten nicht mehr viel gemein haben und mehr oder weniger als Marketing-Angaben für "So klein wie..." verwendet werden.
Zukunft
Um der immer komplizierter werdenden Miniaturisierung aus dem Weg zu gehen, durch die elektronische Schaltungen auch immer anfälliger werden (Wärmeentwicklung, elektromagnetische Störungen, Quanten-Tunneling etc.) und dem Bemühen trotzdem immer schnellere und effizientere Chips zu fertigen, könnte man statt der trägen, mit Ladung (und Masse) behafteten, Elektronen ja auch Photonen für Schaltungen verwenden. Daher kommt nach dem Zeitalter der Elektronik das der Photonik, mit völlig neuartigen Schaltungen, Fertigungsprozessen und Möglichkeiten. Das ist die Zukunft und die ist längst da. Wir leben alle (bis auf wenige Ausnahmen) stets in der Vergangenheit - das dafür aber auch dank unserer kleinen Helfern in allen Lagen nicht mal schlecht. Die Frage, wo sie denn überall verbaut sind, stellt sich eigentlich nicht mehr, sondern eher: wo noch nicht? In Schweden gibt's vergünstigte Versicherungstarife, wenn nicht nur der Computer am Handgelenk Daten sammelt, sondern wenn der reiskorngroße Spion - ich meinte natürlich Gesellschafts- und Gesundheitsoptimierer - subkutan im Körpergewebe sein lauschiges Plätzchen findet.
"Die Zukunft ist schon da - sie ist nur noch nicht gleichmäßig verteilt.", William Gibson (1993)