Ist Nvidia unantastbar? Drei Gründe, warum der Konzern um die Führungsposition bangen muss (2024)

Seit Kurzem wird der Chipkonzern Nvidia an der Börse mit rund drei Billionen US-Dollar bewertet. Damit löst Nvidia Apple als bisher zweitwertvollstes Unternehmen ab. Die Rekordbewertung hat heftige Diskussionen ausgelöst. Sicher, Nvidia ist ohne Zweifel der weltweit führende Hersteller von KI-Beschleunigerchips, und die großen KI-Modelle sorgen für eine geradezu explosionsartige Entwicklung der Nachfrage nach solchen Chips. Aber ist der Konzern wirklich so einzigartig? Oder könnte die Blase demnächst platzen? Betrachtet man die Frage aus einer technischen Perspektive, gibt es durchaus ein paar Gründe, skeptisch zu sein.

Anzeige

Anzeige

Erfolgsfaktoren: Früher Start und gutes Ökosystem

Nvidias Kerngeschäft waren ursprünglich Chips für Grafikkarten. Die Nvidia-Entwickler erkannten allerdings schon ziemlich früh – um 2005 herum –, dass sich die Chips auf Grafikkarten auch als Rechenbeschleuniger nutzen lassen. Zunächst ging es dabei um alle möglichen wissenschaftlichen Berechnungen – seit Mitte der 2010er-Jahre dann mehr und mehr um KI.

Aber der Reihe nach: Was haben Grafikarten mit KI zu tun? Die Mathematik ist ähnlich. Um einen halbwegs realistischen räumlichen Eindruck zu erzielen, berechnen Computerspiele Szenen, in denen die Gamer sich bewegen, tatsächlich als dreidimensionale Gitterwelten. Das Rendering dieser Szene, das, was auf dem Screen zu sehen ist, ist eine Projektion dieser dreidimensionalen Welt auf die zwei Dimensionen des Bildschirms. Jedes Mal, wenn sich die Perspektive ändert, also die Spielfigur bewegt, muss diese Projektion neu berechnet werden.

Anzeige

Anzeige

MIT Technology Review News

Bislang benötigt KI teure Chips – diese Physiker wollen das ändern

MIT Technology Review Analyse

Dynamik durch KI: Welche Trends die Halbleiterindustrie lenken werden

MIT Technology Review Feature

Völliger Unfug statt hilfreicher Antwort: Darum liegt Googles KI-Suche so oft daneben

Mathematisch geht das, indem man in Zeilen und Spalten angeordnete mathematische Objekte, Matrizen, miteinander multipliziert. Die Rechenvorschrift für eine Matrizenmultiplikation wiederum besteht aus einer Abfolge von nur zwei Grundrechenoperationen: Multiplikation und Addition, die aber auf sehr viele verschiedene Datenpunkte angewandt werden müssen. Um das zu beschleunigen, rechnen viele darauf spezialisierte kleine Rechenwerke in der Grafikkarte – Graphical Processing Units, GPUs – parallel. Und genau dieselben Rechenoperationen kommen auch bei Berechnungen für neuronale Netze ständig vor. Deshalb eignen sich GPUs auch gut, um das Training und die Anwendung von neuronalen Netzen zu beschleunigen.

Um das Potenzial der Grafikkarten nutzbar zu machen, entwickelte Nvidia bereits sehr früh wichtige Software-Bibliotheken, die die Arbeit von Programmierern enorm erleichtern. Gleichzeitig bindet das Software-Ökosystem die Entwickler auch an die Produkte von Nvidia, denn mittlerweile kann man zwar auch andere Hardware-Beschleuniger kaufen, müsste dann aber die Software umfangreich auf die neue Hardware anpassen.

Gleichzeitig gelang es Nvidia mit ausgezeichneten Beziehungen zu Hardware-Herstellern wie etwa TSMC, technisch führend zu bleiben und jedes Jahr leistungsfähigere Hardware zu präsentieren. Die neuesten KI-Chips des Unternehmens werden dementsprechend in Vier- oder Fünf-Nanometer-Technologie gefertigt und gehören damit zur fortschrittlichsten Hardware, die man aktuell kaufen kann.

Risikofaktor China

Dennoch gibt es eine Reihe von Risikofaktoren, denen das Unternehmen ausgesetzt ist. Der erste Faktor ist zur Hälfte technisch und zur Hälfte politisch: das Geschäft mit China. Seitdem die USA den Export nach China immer mehr beschränken, bricht Nvidia ein wesentlicher Teil seines Umsatzes weg. Seit Jahren liefert der Konzern sich daher mit den US-Behörden ein Wettrennen, in dem er versucht, seine Chips für das China-Geschäft so auszulegen, dass sie den Buchstaben nach gerade so legal ausgeführt werden können, aber trotzdem noch attraktiv genug für chinesische Kunden sind. Trotzdem bröckelt Nvidia das China-Geschäft so langsam weg, denn die politisch erzwungene Entkopplung des chinesischen Marktes hat die chinesische Chipentwicklung massiv beschleunigt. Huawei versucht sich mittlerweile als – auch technisch – ernst zu nehmender Konkurrent von Nvidia zu positionieren. Zunächst hauptsächlich in China selbst, aber möglicherweise bald auch international.

Anzeige

Anzeige

Risikofaktor Big Tech

Zudem haben sowohl Apple als auch OpenAI und Google eigene KI-Chips angekündigt. Und Intel will mit neuen Prozessoren gemeinsam mit Microsoft den Markt für „KI-PCs“ entwickeln. Die neue Generation an Prozessoren bietet integrierte KI-Beschleuniger, damit KI-Funktionen besser – und effizienter – in die nächsten Generationen von PCs und Laptops integriert werden können. Die KI-Beschleuniger sind zwar nicht so leistungsfähig wie die Spezialchips von Nvidia. Das wird für diese Anwendungen aber auch gar nicht nötig sein.

Risikofaktor Innovation

Mit Sambanova Systems, Cerebras Systems oder DeepX gibt es zudem eine Reihe von Start-ups, die beträchtliche Investorengelder einsammeln für die Entwicklung spezialisierter KI-Beschleunigerchips, die selbst Nvidia schlagen sollen. Die Idee dahinter: Die Chips enthalten eine Reihe von spezialisierten Rechenelementen – ähnlich wie die GPUs, aber noch stärker maßgeschneidert. Die einzelnen Elemente arbeiten unabhängig und werden über den Datenfluss gesteuert. Die Intelligenz in dem Chip besteht darin, die richtigen Daten zur richtigen Zeit an die richtige Stelle zu bringen. Damit lassen sich dann ziemlich komplexe Vorgänge wie zum Beispiel eine Bildauswertung sehr effizient und schnell erledigen. Der Nachteil ist allerdings, dass diese Chips meist nur eine einzelne Aufgabe sehr gut lösen können und nicht so flexibel sind wie die Beschleuniger von Nvidia.

Unabhängig davon versuchen zahlreiche Forschungsgruppen mit einer neuen Art von Datenverarbeitung Chips noch schneller und effizienter zu machen: mit dem neuromorphen Computing. Die Idee dabei: In herkömmlichen Chips werden Daten aus dem Speicher zum Rechenwerk transportiert, dort verarbeitet, und das Resultat wird dann zurückgeschrieben. Der Datentransport ist aus zwei Gründen problematisch: Zum einen begrenzt er die Performance, weil er langsamer ist als die Verarbeitung – der Von-Neumann-Flaschenhals. Zweitens verbraucht das Transportieren eine Menge Energie. Der neue Ansatz nutzt physikalische Eigenschaften von Speicherbausteinen aus, um Daten direkt im Speicher zu verarbeiten: Das In-Memory-Computing befindet sich allerdings noch in der Erforschung.

Ist Nvidia unantastbar? Drei Gründe, warum der Konzern um die Führungsposition bangen muss (1)

Mehr zu diesem Thema

MIT Technology Review China

Verpasse keine News zu Software & Entwicklung 💌

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Ist Nvidia unantastbar? Drei Gründe, warum der Konzern um die Führungsposition bangen muss (2024)
Top Articles
Latest Posts
Article information

Author: Terence Hammes MD

Last Updated:

Views: 5801

Rating: 4.9 / 5 (49 voted)

Reviews: 80% of readers found this page helpful

Author information

Name: Terence Hammes MD

Birthday: 1992-04-11

Address: Suite 408 9446 Mercy Mews, West Roxie, CT 04904

Phone: +50312511349175

Job: Product Consulting Liaison

Hobby: Jogging, Motor sports, Nordic skating, Jigsaw puzzles, Bird watching, Nordic skating, Sculpting

Introduction: My name is Terence Hammes MD, I am a inexpensive, energetic, jolly, faithful, cheerful, proud, rich person who loves writing and wants to share my knowledge and understanding with you.