DeutschEnglish

Schlüsseltechnologien aus NRW als Enabler für zukünftige Digital- und Computing-Konzepte

In jeder Form, in jeder Größe – Computer begleiten uns im Leben und digitalisieren dabei alle Bereiche. Angefangen bei Smartphone und Smartwatch über das autonome Auto hin zum Cloud-gestützten Office. Modernste Sensorik erfasst riesige Datenmengen, um Prozesse effizienter, sicherer und schneller zu machen. Wir verschicken gigantische Datenmengen über immer schnelleren Mobilfunk. Neue Technologien und Anwendungsfelder eröffnen sich.

In jeder Form, in jeder Größe – Computer begleiten uns im Leben und digitalisieren dabei alle Bereiche. Angefangen bei Smartphone und Smartwatch über das autonome Auto hin zum Cloud-gestützten Office. Modernste Sensorik erfasst riesige Datenmengen, um Prozesse effizienter, sicherer und schneller zu machen. Wir verschicken gigantische Datenmengen über immer schnelleren Mobilfunk. Neue Technologien und Anwendungsfelder eröffnen sich.

Höher, weiter, schneller; in kaum einem Markt sind Innovationszyklen kürzer und oftmals dramatischer als im Computing- und Digitalbereich. Computer begleiten uns in jeglicher Größe und Form und erobern dabei immer neue Anwendungsbereiche mit immer größerer Rechenleistung und geringerem Energiebedarf. Angefangen beim Smartphone, welches inzwischen nicht nur unsere zentrale Kommunikationsschnittstelle zur Außenwelt ist. Das Smartphone als portabler Computer unserer Zeit beherrscht zahllose Anwendungen für den Arbeits- und Lernalltag ebenso wie neuste Spiele zur Unterhaltung auf Knopfdruck. Auch die Smartwatch übernimmt bereits heute viele dieser Aufgaben und erfasst gleichzeitig dazu auch noch Gesundheitsdaten der Tragenden. Die moderne Mobilität, welche sich rasant in Richtung autonomer Mobilität entwickelt, erhöht dank modernster Sensoren und cloudgestützten Services die Sicherheit und den Komfort von Fahrgästen.

Schlüsseltechnologien aus NRW, wie zum Beispiel die Nano- und Mikrosystemtechnik, die Photonik und auch die innovativen Materialien werden so, als Enabler für zukünftige Digital- und Computing-Konzepte, auch zum Schlüssel für Wirtschaftswachstum, Resilienz, Innovationskraft und Wohlstand. Zudem leisten sie einen nachhaltigen Beitrag zur Steigerung der Energieeffizienz und Ressourcenschonung. Die Digitalisierungs-Anwendungsbereiche könnten breiter nicht sein – über den Ausbau sauberer, erneuerbarer Energien, den Gesundheitssektor, Aus- und Weiterbildung, die Mobilitätswende, nachhaltige Städte. Zudem bildet die Digitalisierung die Basis für nachhaltige und effizientere Produktionsprozesse – in der Industrie ebenso wie in der Landwirtschaft, was wiederum einen nachhaltigen Beitrag zum Klimawandel und dem Umwelt- und Naturschutz leistet.

Aktuell führt uns der Mangel an Chips vor Augen, wo wir die Nanoelektronik überall brauchen. Das Streben der Europäischen Union nach technologischer Souveränität und Technologieführerschaft ist ein ehrgeiziges Vorhaben (EU Chips Act). Der Industriesektor der Halbleiterindustrie ist ein komplexer vertikaler Bereich, bei dem viele Akteure verknüpft sind und etliche Technologiebereiche in jeden Schritt einfließen. Darum schauen wir uns in dieser Ausgabe die Wertschöpfungsketten der modernen Mikro- und Nanoelektronik an, und wo Aktivitäten auf europäischer, nationaler und landesweiter Ebene stattfinden.

Seinen Anfang nimmt ein mikroelektronisches Bauteil quasi auf seinem Vorgänger: Am Computer wird der nächste Chip entworfen. Angefangen beim Befehlssatz, den das angestrebte System später bearbeiten können soll. Der Befehlssatz enthält alle grundlegenden Tätigkeiten eines Prozessors. Hier gibt es eine begrenzte Anzahl an internationalen Anbietern, weshalb hier besonders die RISC-V Architektur hervorzuheben ist. Die Entwicklung des Prozessors basiert auf dem Open-Source-Ansatz, die Architektur hat einen kompakten Grundstock an Befehlen, welcher sich sehr flexibel erweitern lässt. Ist der Befehlssatz entschieden und entworfen, kommt die nächste Software für das elektronische Design hinzu.

Moderne Schaltstrukturen werden mit electronic design automation (EDA) Software entworfen, denn längst hat die Anzahl erforderlicher Strukturen das für den Menschen überschaubare Maß überschritten. Milliarden Schaltstrukturen müssen optimiert auf einem Chip angeordnet werden, ein klassisches Optimierungsproblem. Einen wichtigen Beitrag haben hier die Bonn Tools geleistet, welche in der namensgebenden Stadt von Mathematikern entwickelt wurden. Modernste Ansätze nutzen künstliche Intelligenz, um die große Datenmenge dieses Optimierungsproblems anzugehen. Hier wurden vor kurzem von internationalen Firmen bereits Erfolge in realen Produkten erzielt.

Ist von Seiten der Software alles vorbereitet, geht es an die Nanotechnologie. In den sogenannten Fabs werden auf Wafern aus ausgewählten Materialien (am häufigsten Silizium, aber auch Saphir, Galliumnitrid und Glas) in unzähligen Schritten Strukturen aufgewachsen. Damit Strukturen mit einer Präzision von wenigen Nanometern genau hergestellt werden können, benötigt es passend dazu Handling- und Positioniersysteme. Hier kommt die Feinmechanik und der Maschinenbau ins Spiel, denn alle Komponenten einer Lithographiemaschine müssen extrem sauber und genau arbeiten. Bereits während bzw. direkt nach einzelnen Beschichtungs-prozessen wird an vielen Stellen mittels optischer und elektronischer Verfahren eine Qualitätskontrolle durchgeführt. Lithographie ist in disem Fall die Herstellung von nanoskaligen Strukturen mittels gezielter Beleuchtung unter Verwendung von Masken. Die Belichtung von photoreaktivem Material erzeugt eine Strukturierung entweder gleich oder negativ der Zielstruktur. Aufgrund der extremen Miniaturisierung kommen komplexe optische Effekte ins Spiel. Zielstrukturen sind deutlich kleiner als die Wellenlänge des sichtbaren Lichtes. Die Masken müssen daher immer ausgetüftelter designt werden. Die Maskenfertigung stellt höchste Anforderung an die Fertigung.

Die Lithographie hat sich insgesamt zu einem eigenen Marktsegment der Photonik entwickelt. Angefangen beim zu generierenden Licht, welches mittels Lasertechnik, entweder durch direkte Verwendung eines Lasers oder in der neuesten Technologie durch laserinduziertes Plasma, generiert wird. Die Lichtquelle muss eine möglichst hohe Ausbeute einer exakten Wellenlänge liefern, damit die Strukturierung sauber und zuverlässig gelingt. Die Lichtquelle wird gefolgt von modernsten Linsen und Spiegeln, die den Strahl formen und das Substrat kon-trolliert belichten. Eine Erweiterung zur Photolithographie ist die gerichtete Selbstaggregation mittels Copolymeren (Directed Self-Assembly). Hier wird die Zielstruktur zunächst durch Belichtung vorbereitet. Anschließend wird das sogenannte Copolymer, ein Polymer mit zwei Bereichen verschiedenen chemischen Verhaltens innerhalb der Polymerkette aufgebracht. Durch anschließende Aktivierung ordnet sich dieses Polymer passend zur vorstrukturierten Oberfläche. Da Polymerketten mit exakt definierten Längen der Bereiche möglich sind, lässt sich so eine sehr exakte Strukturierung erreichen. In Kombination mit der lithographischen Vorbehandlung sind sehr saubere und exakte Strukturen im Nanometerbereich möglich.

Im Bereich der Beschichtungsmaterialien für moderne Halbleitertechnik sind einige neue Materialien im Übergang von Prototyp zur Serienfertigung. Die in den letzten zwei Jahrzenten erforschte Materialklasse der 2D-Van der Waals Materialien gehört zu dieser Klasse von Materialien. Hier gehören unter anderem das durch den Nobelpreis bekannte Graphen, als auch das weiße Graphen h-BN (hexagonales Bornitrid) und MoS2 dazu. Durch ihre besondere Schichtstruktur können aus diesen Materialien Schichtdicken von ein bis drei Atomen gezielt abgeschieden werden, was einer Dicke von weniger als einem Nanometer entspricht. Die kleinsten Abmessungen innerhalb kommerzieller Transistoren sind in der Größenordnung von fünf bis sieben Nanometer. Durch diese Materialklasse kann eine weitere Miniaturisierung von Transistoren erreicht werden. Wenn Transistoren kleiner werden, geht damit ein Gewinn an Energieeffizienz einher. Zudem können durch die weitere Verringerung der Fläche mehr Transistoren auf die gleiche Fläche gebracht werden, was die Rechengeschwindigkeit eines Systems verbessert. Bei den Transistoren kommen sowohl optimierte Materialien, als auch platzsparende Architekturen zum Einsatz. Die Erweiterung von Transistoren in die dritte Dimension also aus der Ebene heraus wird mit verschiedenen Ansätzen bereits teilweise realisiert. Neueste Entwicklungen sind hier der Vertikal-Transport Feldeffekt Transistor (VTFET). Durch den Stromfluss in der Vertikalen kann noch mehr Fläche eingespart werden.

Etwas andere Schaltstrukturen finden sich im photonischen Computing. Dieser Ansatz versucht, nicht mit Strom, also Elektronen, sondern mit Licht, also Photonen zu rechnen. Da Photonen um einiges schneller und leichter (quasi masselos) sind, bietet dieser Ansatz die Möglichkeit, schneller und energieeffizienter zu werden. Hierbei werden die klassischen logischen Bauteile der Transistoren, Speicher und Leiterbahnen durch entsprechende optische Äquivalente ersetzt. Es gibt mehrere verschiedene Ansätze im Labormaßstab, als auch erste Versuche der Kommerzialisierung von Unternehmen aus NRW.

Wenn alle Beschichtungsprozesse fertig durchgeführt wurden, sind auf den Wafer eine große Zahl sogenannter Dies vorhanden. Ein Die beschreibt eine einzelne funktionale Chipeinheit. Für eine Effizienzmaximierung werden möglichst viele Dies auf einen einzelnen Wafer platziert. Der Wafer wird nun in die einzelnen Dies zerschnitten und jeder Die wird im Packaging-Prozess in eine passende elektronische Umgebung eingebettet. Hierbei wird sowohl die makroskopische Anbindung für elektronische Signale als auch der Schutz vor äußeren Störeinflüssen geschaffen. Zudem ist das Packaging maßgeblich für die Temperaturregelung zuständig.

Ist der Die gepackt, ist das fertig, was nun von Geräteherstellern gekauft und verbaut wird. Der Gerätehersteller kann dabei entweder Auftraggeber der ganzen Entwicklung sein oder einfach aus dem Angebot eines Chipherstellers einen für seine Anwendung geeigneten Chip ausgewählt haben.

Doch auch wenn Transistoren immer kleiner und energieeffizienter werden, so ist die Geschwindigkeit von herkömmlichen Systemarchitekturen durch das Von-Neumann-Bottleneck begrenzt. Diese besagt ganz eifach, dass Daten aus dem Speicher in die Recheneinheit geladen werden und auch zurück müssen. Schritte bzw. Wege, welche Zeit und Energie kosten. Hier greift der Ansatz des neuromorphen Computings. Angelehnt an die Funktionsweise des Gehirns und seinen Neuronen wird im neuromorphen Computing versucht, Speicher und Recheneinheit in Einem zu Bauen. Unter diesem neuen Ansatz ist eine große Anzahl verschiedener innovativer Lösungen versammelt. Damit Speicher und Rechner in einem Bauteil sein können, werden Materialien genutzt, welche mehr als zwei Zustände besitzen, also weg vom binären hin zu einem mehrstufigen Zahlensystem gehen. Auch die Verwendung von analogen Schaltkreisen zur Parallelisierung von Rechenschritten wird sowohl im Umfeld des neuromorphen als auch des „regulären“ Computings erforscht. Zudem gibt es noch den Ansatz des aktuell an Popularität gewinnenden Quantencomputings.

Quantencomputer rechnen nicht mit Transistoren und binären Systemen, sondern Qubits. Diese Bits sind miteinander verschränkt und können mehr als einen Zustand gleichzeitig repräsentieren. Das erlaubt Quantencomputern eine enorme Beschleunigung bei Optimierungsproblemen. Für alle drei Ansätze, analoges, neuromorphes und Quantencomputing werden auch angepasste bzw. optimierte Algorithmen benötigt, damit zu berechnende Probleme passend übersetzt werden können.

Die Treiber der Entwicklung sind aber nicht nur Miniaturisierung und Verbesserung der Rechenleistung, sondern auch die Energieeffizienz. Für Anwendungen mit hoher Daten- oder Rechenlast werden große, energiehungrige Rechenzentren benötigt. Neuromorphe Systeme haben sich hier bereits als sehr effizient gezeigt, benötigen aber noch viel Strom für die Umgebung in die sie eingebettet sind. Zukünftige Ansätze können hier noch Einsparpotentiale hebeln.

Eine Entwicklung in der Architektur von Datennetzwerken ist das Edge-Computing. Als Alternative zum Cloud-Computing werden hier erfasste Daten am Rande (engl. edge) des Netzwerks bereits prozessiert. Dies ermöglicht unter anderem eine Reduktion von erfassten Daten direkt am Erfassungsort, wenn diese weiter an eine zentrale Cloud gesendet werden. Falls schnelle Steuer- und Regelprozesse erforderlich sind, bietet Edge-Computing den Vorteil von „kurzen“ Wegen, welche Zeitersparnisse in der Netzwerkarchitektur bedeuten.

Der eingangs erwähnte EU Chips Act versucht daher gleich auf mehrere Weisen Innovationen im Bereich der Halbleiterfertigung für moderne Computingansätze zu fördern. Mit einem angestrebten Volumen von 43 Mrd. € bis 2030 soll unter anderem eine EU-übergreifende Plattform für EDA-Programme aufgebaut werden. Gefördert werden auch öffentlich zugängliche Pilotanlagen der Nanoelektronik, durch den erleichterten Zugang soll die Prototypenfertigung innerhalb Europas beschleunigt werden. Eine übergeordnete Koordinierung und Zertifizierung von Prüfungseinrichtungen für klassische als auch Quantenchips soll die technologische Entwicklung weiter erleichtern.

Die Entwicklungen im Computing tragen dazu bei, dass Rechenprozesse energieeffizienter werden und eine immer höhere Komplexität haben können. Auf der Ebene des Individuums kann das mehr Leistung der Geräte und eine längere Akkulaufzeit bedeuten. Im Übergeordneten bietet verbessertes Computing gleich mehrere Vorteile: Nicht nur die Berechnung ist energiesparend, sondern es können auch komplexere Fragestellungen der Optimierung, z.B. beim Leichtbau im Mobilitätssektor, der Wirkstoffforschung in der Pharmazie und der Steuerung von Energienetzen beantwortet werden. Hierbei werden also als Sekundäreffekt weiter Ressourcen eingespart, da hochwertige Simulationen die Anzahl realer materialintensiver Experimente verringern.

Source: NMWP-Magazin

Cluster NMWP.NRW

Der Landescluster NanoMikroWerkstoffePhotonik.NRW handelt im öffentlichen Auftrag mit Sitz in Düsseldorf und entstand 2009 im Rahmen der Exzellenzinitiative der nordrhein-westfälischen Landesregierung zur Stärkung der Position NRWs in den Bereichen...more...