DeutschEnglish

Vom Datencenter ins Smartphone: Die Zukunft der KI-Hardware

Die Zukunft der KI-Hardware Künstliche Intelligenz hat dank spezialisierter Hardware enorme Fortschritte gemacht. Doch digitale Architekturen stoßen an physikalische Grenzen: Zu energieintensiv, zu langsam, zu viel Platzbedarf – erleben analoge Architekturen eine Renaissance?

Künstliche Intelligenz (KI) hat in den letzten Jahren beeindruckende Fortschritte gemacht, vor allem dank spezialisierter Hardware wie NVIDIAs Graphic Processing Unit (GPU) oder Googles Tensor Processing Unit (TPU). Diese Hardware stellt immense Rechenleistung für komplexe Modelle bereit. Trotz dieser Fortschritte gibt es bedeutende Probleme: hoher Energieverbrauch, immense Datenmengen, lange Trainingszyklen und hoher Platzbedarf.

Diese Herausforderungen haben zur Zentralisierung des KI-Trainings geführt, wobei große Rechenzentren den Großteil der Arbeit übernehmen. Daten werden durch mobile Geräte und Sensoren gesammelt und in Rechenzentren verarbeitet. Der Trend zu immer größeren Modellen erfordert immer mehr Daten und leistungsfähigere Hardware. Prognosen sagen voraus, dass die Kosten für das Training eines einzelnen neuronalen Netzes bald das Bruttoinlandsprodukt führender Länder übersteigen werden. Neben diesen Problemen gibt es weitere Herausforderungen zentralisierter KI-Systeme: hohe Bandbreitenanforderungen, Datenschutzrisiken und Latenz. Zudem erfordert die Skalierung von Rechenzentren erhebliche Investitionen und verursacht eine enorme Umweltbelastung.

In diesem Kontext bietet Edge AI eine vielversprechende Lösung. Hier wird KI teilweise oder sogar ganz auf Endgeräten und Sensoren berechnet, anstatt zentral auf einem Server. Dies reduziert die Notwendigkeit umfangreicher Datenübertragungen und ermöglicht schnellere und sicherere Entscheidungen direkt vor Ort. Hieraus ergeben sich aber schärfere Anforderungen an die Hardware in diesen Endgeräten und Sensoren, was unweigerlich zur Suche nach fundamental neuen Hardwarearchitekturen führt. Diese müssen energieeffizient und integrierbar sein, um auf batteriebetriebenen Geräten eingebaut und eingesetzt werden zu können. Zudem müssen sie eine hohe Dateneffizienz aufweisen, um mit den erheblich geringeren Datenmengen auf Endgeräten dennoch nutzbare Modelle erzeugen zu können.

Zur Realisierung dieser Anforderungen wird derzeit intensiv geforscht und entwickelt. Die Industrie, unterstützt von vielen Startups, versucht zunehmend, den Inferenzbetrieb auf Endgeräte auszulagern. Dies ist beispielsweise für das autonome Fahren essenziell, da die Erkennung sicherheitskritisch in Echtzeit erfolgen muss. Viele Unternehmen haben sich daher darauf spezialisiert, Edge KI auszuführen.

Es gibt verschiedene Wege, dies zu erreichen. Einer der vielversprechendsten ist die Nutzung von Memristoren. Ein Memristor ist ein Bauteil, das seinen Widerstand ändert, abhängig davon, wie viel elektrische Ladung durch es hindurchgeflossen ist. Quasi ein Widerstand mit Gedächtnis. Das macht Memristoren ideal für „In-Memory Computing“, eine Technik, die den Engpass in traditionellen Computern mit digitalen Architekturen überwindet. Das Verhalten eines Memristors erinnert stark an das Verhalten einer menschlichen Synapse, weshalb es ein vielversprechendes Bauteil für zukünftige KI-Hardwarearchitekturen darstellt. Zum Beispiel können in einem sogenannten Memristor-Crossbar-Array die wichtigsten Berechnungen für KI stark beschleunigt werden, nämlich die Multiply-Accumulate-Funktion, die bei der Berechnung von Matrix-Vektor Multiplikationen zum Tragen kommt. Hierbei wird das natürliche Zusammenspiel von Strömen und Spannungen ausgenutzt, um diese Berechnungen massiv parallel auszuführen – man überlässt also der Physik den schwierigen Teil. So wird zum Beispiel bei der Erkennung von Bildern das Eingangssignal in einen Vektor umgewandelt, während das Memristor-Crossbar-Array die zugrunde liegenden Gewichte als Matrix darstellt. Durch die analoge Verarbeitung kann das Ergebnis in Echtzeit berechnet werden. Die Nutzung von Memristoren in analogen integrierten Schaltkreisen kann effizienzgewinne bis zum Faktor 10.000 hervorrufen, weshalb sie ideal für den Einsatz in Endgeräten geeignet sind.

Bisher wird jedoch hauptsächlich die KI-Inferenz auf Endgeräte ausgelagert. Das Training von KI findet immer noch in zentralisierter Form statt. Damit aber der Einsatz von KI sich weiterentwickeln kann, muss auch das Training auf Endgeräten stattfinden können. Warum ist das KI-Training auf Endgeräten schwer möglich, obwohl es vielversprechende Technologien wie Memristoren gibt? Der Hauptgrund ist, dass Memristoren nur eine begrenzte Anzahl von Schreibzyklen haben. Während dies bei der Inferenz verkraftbar ist, müssen Memristoren im Training viel häufiger beschreiben werden, was die Lebensdauer der Memristoren schnell erschöpft. Ohne signifikante Sprünge im Reifegrad von Memristoren werden diese noch für eine lange Zeit nicht für KI-Training einsetzbar sein.

Das in Bochum, NRW, ansässige Startup GEMESYS hat dieses Problem nun gelöst. GEMESYS hat eine Architektur entwickelt, die die Anforderungen an memristive Bauelemente minimal hält und mit Schwellwertverfahren arbeitet. Dadurch ist nur noch die Information nötig, ob ein Bauelement einen gewissen Schwellwert überschreitet oder unterschreitet, um ihm eine 1 oder 0 zuzuordnen. Durch die minimalen Anforderungen kann GEMESYS Hardware-Emulatoren, sogenannte Pseudomemristoren, nutzen, um das benötigte Verhalten von neuartigen Memristoren mit ausgereiften Bauelementen zu imitieren. Somit wird das grundlegende Problem gelöst, und memristive Technologie kann für das Training und Inferenz gleichermaßen eingesetzt werden.

Durch Training und Inferenz auf Endgeräten kann nun eine neue Ära der künstlichen Intelligenz starten, da gänzlich neue Möglichkeiten entstehen. KI kann jetzt am Entstehungsort der Daten an die Umwelt angepasst, personalisiert und individualisiert werden. Durch die Verarbeitung der Daten direkt auf dem Endgerät werden autonome Systeme geschaffen. Daten, die bisher kaum bis gar nicht aufgrund von DSGVO-Richtlinien verwendet werden konnten, können nun dazu beitragen, neuartige Geschäftsmodelle und Anwendungen zu ermöglichen. Use Cases, die aufgrund von schlechter Internetverbindungen Schwierigkeiten hatten, KI effizient zu nutzen, haben nun die Möglichkeit, diese Technologie für ihre Prozesse und Geschäftsmodelle zu verwenden. Auch gesamtheitliche Systeme können nun überdacht werden.

Ein Beispiel: Ein Energienetzbetreiber möchte wissen, wo und wann im Netz Ausreißer (Outlier) auftreten, die sich in Form von Stromausfällen bemerkbar machen. An jedem der 50.000 Energieknoten sind verschiedene Daten vorhanden, da dort unterschiedliche Industrien, Häuser, PV-Anlagen etc. angeschlossen sind. Außerdem ändern sich die Daten an jedem Knoten ständig, z. B. durch den Wechsel der Jahreszeiten. Zentralisierte Systeme kommen hier an ihre Grenzen, weil sie 50.000 verschiedene KI-Modelle trainieren und regelmäßig aktualisieren müssten. Mit einem selbstlernenden Chip und verteiltem Ansatz wird dieses komplexe Problem einfach gelöst. Der Chip kann vor Ort die Datenstruktur lernen und sich durch kontinuierliches Training an Veränderungen anpassen. So lässt sich ein komplexes Problem schnell, effizient und kostengünstig lösen.

Die Fortschritte in der dezentralen KI-Technologie, insbesondere durch Innovationen von Startups wie GEMESYS, können die Nutzung von KI grundlegend verändern. Dies ermöglicht sicherere, effizientere und anpassungsfähigere KI-Anwendungen. Die nächste Herausforderung besteht darin, neue Anwendungen zu finden, bei denen dezentrale KI und das Training auf Endgeräten den größten Nutzen bringen. Da Edge AI Training nun möglich ist, muss der Markt in diese Richtung entwickelt werden, denn eins steht fest: in der deutschen und europäischen Industrie steckt viel Potenzial, das mit dieser neuen Hardware gehoben werden kann.

GEMESYS Technologies

Technologische Basis

  • Neuromorphes Computing
  • Memristoren
  • Analoges Schaltungsdesign

Innovation

  • Umgehung des Von-Neumann Bottlenecks für KI-Training
  • Paradigmenwechsel im Schaltungsdesign für KI-Chips

Primäre Anwendungsfelder

  • Künstliche Intelligenz
  • Cloud Computing (Zentralisiertes KI Training)
  • On the Edge Learning (Dezentralisiertes KI Training, IoT Devices)

Impact

  • Energieeinsparung
  • Erhöhte Effizienz bei Neuronalen Netzen
  • Ermöglichen von On-The-Edge KI (KI-Training auf IoT Geräten)
  • Essentieller Baustein zur Realisierung der
  • Zukunftsvision von KI

www.gemesys.tech

Abbildung 01: Abstrakte Visualisierung eines Memristors © GEMESYS GmbH

Abbildung 02: Demonstrator der Memristive Processing Unit des Startups GEMESYS, © GEMESYS GmbH

Bildergalerie

Quelle: NMWP-Magazin

GEMESYS Technologies

„Wir bauen einen vom menschlichen Gehirn inspirierten Computer für den Fortschritt der Menschheit.“ GENIUS MEMRISTIVE COMPUTING SYSTEMS Selbst Einzeller wie Amöben können Informationen bereits effizienter verarbeiten als der beste je von...mehr...