Image: Neue Prozessoren für neuronale NetzeNeue KI-Chips sollen das menschliche Gehirn abbilden. | adventtr
TechnikDer KI-Chip

Neue Prozes­soren für neuro­nale Netze

Lesezeit ca.: 4 Minuten
Annette Link

Annette Link

Freie Journalistin

Glaubt man den IT-Größen weltweit, hat der Standard­pro­zessor auf dem Gebiet der Künstlichen Intelligenz (KI) ausgedient. Für neuronale Netze sind Intel-CPUs und Co. zu langsam und bisherige Grafikchips, die zwar schneller sind, verbrauchen zu viel Strom. Neue Ansätze sind daher gefragt.

14. Mai 2019

Internet-Konzerne wie Google, Amazon, Alibaba, aber auch Prozessor-Experten wie Intel, ARM, und Nvidia rufen derzeit die dritte Generation des KI-Chips aus. Sie heißen Tensor Processing Units, Neural Network Prozessor, Neuromorphe Prozessoren oder Visual Processing Unit und sollen die Künstliche Intelligenz auf die nächste Stufe heben. Was sie eint: auf kleinstem Raum komplex miteinander verdrahtete Schaltkreise. Werden Signale durch sie hindurch gejagt, treffen sie mehrmals aufeinander und verändern dabei ihre Stärke.

„Die Vision ist es, ein künstliches neuronales Netz zu entwickeln, das tatsächlich das menschliche Gehirn abbildet. Manche haben hier sehr hohe Hoffnungen und Erwartun­gen“, erklärt Rolf Drechsler vom Deutschen Forschungs­zen­trum für Künstliche Intelligenz (DFKI). Der Wissenschaftler, der auch eine Professur an der Uni Bremen innehat, beschäftigt sich im Schwerpunkt mit cyber-physischen Systemen. „Dazu müssen wir wissen, wie der Mensch tatsächlich lernt, wie wir es schaffen, durch die Straßen zu laufen und alle Informationen, die dabei auf uns einströmen, zu verarbeiten und sofort zu erkennen, was wichtig und was unwichtig ist“, betont er und spielt damit auch auf die Anwendung von KI beim autonomen Fahren an.

Verstehen simulieren

Etwas sehen oder hören, Relevantes herausfil­tern, mit Vorwissen abgleichen und das Verhalten der Situation entsprechend anpassen – ein Schlüssel dazu ist die Musterer­ken­nung. Für diese haben Forscher bereits in den 1940er Jahren die ersten mathematisch-theoreti­schen Schaltmo­delle entwickelt. Dabei werden eingehende Signale so verarbeitet, dass sie nicht sofort eine Reaktion auslösen, sondern erst nachdem ein gewisser Schwellen­wert erreicht ist.

Lange fehlte es an den technischen Möglichkeiten, die Modelle durchzurechnen, geschweige denn sie physikalisch auf eine Platine zu packen. Das änderte sich in den 80er und 90er Jahren und mit Facebook und Co. liegt mittlerweile auch die notwendige Datenmenge vor, um wenigstens in der Simulation Algorithmen so zu trainieren, dass sie anhand von Bildern und Sprachauf­zeich­nungen „lernen“, wann ein relevanter Schwellen­wert erreicht ist, um etwa das Rechener­gebnis im Langzeit- oder Kurzzeitspei­cher abzulegen bzw. es zu verwerfen.

Netze trainieren

Dieses Lernen führten Wissenschaftler zunächst außerhalb des KI-Chips durch und überspielten das Ergebnis anschlie­ßend auf den Prozessor. „Das Deep Learning kann man mit Standard­pro­zes­soren durchrechnen. Diese sind aber für Algorithmen konzipiert, die sequenziell arbeiten: Man kann das vergleichen mit einem Maurer, der zehn Tage braucht, um ein Haus zu bauen. Zehn Maurer brauchen im Rückschluss aber nicht nur einen Tag. Da gibt es einfach Dinge, die nacheinander passieren müssen. Bei neuronalen Netzen ist das anders, da passiert am besten alles gleichzei­tig“, erklärt Drechsler.

In der zweiten Generation kamen deshalb vor allem parallel arbeitende Grafikchips (GPU) zum Einsatz. Allerdings entwickeln diese hohe Temperaturen, sind also Energiefresser und haben einiges an Bord, was für den relativ simplen Abgleich von Datenmassen nicht notwendig ist.

Einige Hersteller optimieren nun im Wettstreit die Simulation und versehen ihre Chips mit mehr Knoten. Andere experimen­tieren mit neuen Schaltmo­dellen oder sind sogar dabei, die Prozessoren physikalisch anders aufzubauen. Ein Ziel: die Rechenleis­tung raus aus den zentralen Rechenzen­tren rein in die smarten Geräte zu bekommen, damit sie autarkes schlussfol­gerndes „Denken“ mit auf den Weg bekommen (Inferenz). Nur so kann etwa ein autonomes Auto selbst „entschei­den“, dass es zwar für einen Kinderwagen bremst, aber nicht für einen, der sich nur in einer Pfütze spiegelt.

Pulsierende Signale

Imitieren statt simulieren könnte die Lösung sein: das Neuromophic Computing. Dafür gibt es analoge oder klassische digitale Ansätze mit Schaltstruk­turen, die sich entweder flexibel programmieren (FPGA) lassen oder deren Schaltungen fix (ASIC), dafür aber hoch speziali­siert sind. „Da ist bisher nichts serienreif, was die Funktiona­lität des Gehirns abbilden kann. Die Hersteller gehen mit Testchips an die Öffentlich­keit. Die Wissenschaft kennt lediglich ein paar Theorien, wie man Neuromorphe Prozesse auf die Schaltungs­technik übertragen könnte, mehr nicht“, bremst Drechsler ein. „Ich bin eher skeptisch.“

Dennoch: Das australi­sche Unternehmen Brainchip hat angekündigt, spätestens Ende 2019 einen Neuromor­phen Chip in Serie auf den Markt zu bringen. Der System-on-Chip-Baustein (SoC) arbeitet nach eigenen Angaben mit einem so genannten Spiking Neural Network (SNN). Es leitet die Infos in Pulsen weiter – ähnlich wie die Testchips True North von IBM oder Loihi von Intel. Eine serielle Marktreife hatten die beiden Chipgrößen allerdings nie in Aussicht gestellt. Ob es sich bei der Brainchip-Ankündigung also nur um einen Marketing­coup für die Analysten handelt, bleibt abzuwarten. Die lautesten unter ihnen, Tractica und Technavio, sehen jedenfalls gigantisches Marktpoten­zial in den KI-Chips der dritten Generation.