Write a journalistic article in German fully based on
Das Gesamtbild: Die KI-Branche betritt Neuland, auch wenn noch Fragen zu den praktischen Grenzen der Skalierbarkeit und der Rendite dieser massiven Investitionen bestehen. Dennoch verschieben Unternehmen wie Meta, OpenAI, Microsoft, xAI und Google weiterhin die Grenzen dessen, was im KI-Computing möglich ist.
Es ist ein neuer Maßstab für KI-Fähigkeiten entstanden: die Fähigkeit, die meisten Nvidia-Chips an einem einzigen Ort zu sammeln. Dieser Wettbewerb zwischen Technologiegiganten verändert die KI-Branche, treibt beispiellose Investitionen in die Computerinfrastruktur voran und verschiebt die Grenzen des maschinellen Lernens.
An der Spitze dieses technologischen Wettrüstens stehen Unternehmen wie xAI von Elon Musk und Meta von Mark Zuckerberg. Diese Firmen bauen riesige Supercluster von Computerservern auf, die jeweils eine erstaunliche Anzahl der spezialisierten KI-Prozessoren von Nvidia enthalten. Das Ausmaß dieser Projekte ist atemberaubend, die Kosten belaufen sich auf Milliarden Dollar und die Anzahl der Chips geht in die Hunderttausende.
Besonders hervorzuheben ist der Einstieg von xAI in dieses High-Stakes-Spiel. In bemerkenswert kurzer Zeit hat das Unternehmen in Memphis einen Supercomputer namens „Colossus“ gebaut. Es verfügt über 100.000 Nvidia Hopper AI-Chips, eine Zahl, die noch vor einem Jahr als außergewöhnlich galt, als Cluster von Zehntausenden von Chips als sehr groß galten.
Unterdessen gab Zuckerberg kürzlich bekannt, dass Meta bereits seine fortschrittlichsten KI-Modelle auf einem Chip-Konglomerat trainiert, von dem er behauptet, dass es alles übertrifft, was von Mitbewerbern gemeldet wird.
Die Motivation hinter diesen massiven Investitionen ist klar: Größere Cluster miteinander verbundener Chips haben bisher zu leistungsfähigeren KI-Modellen geführt, die schneller entwickelt werden, wobei einige Branchenführer bereits Cluster mit Millionen von GPUs ins Auge fassen.
Nvidia, das Unternehmen im Zentrum dieses Technologiewettlaufs, wird von diesem Trend enorm profitieren, und CEO Jensen Huang sieht kein Ende dieses Wachstumskurses in Sicht. Er stellt sich zukünftige Cluster ab etwa 100.000 Blackwell-Chips vor.
Allerdings ist dieser Wettlauf um immer größere Chip-Cluster nicht ohne Herausforderungen und Unsicherheiten. Mit zunehmender Größe dieser Supercluster steigen auch die technischen Hürden. Zehntausende stromhungrige Chips kühl zu halten, ist ein großes Anliegen und führt zu Innovationen in der Kühltechnologie. Flüssigkeitskühlung, bei der Kältemittel direkt zu den Chips geleitet wird, wird in diesen riesigen Anlagen immer häufiger eingesetzt.
Zuverlässigkeit ist eine weitere große Herausforderung. Meta-Forscher haben herausgefunden, dass bei einem Cluster von mehr als 16.000 Nvidia-GPUs während eines 54-tägigen Trainingszeitraums für eine erweiterte Version ihres Llama-Modells routinemäßige Ausfälle von Chips und anderen Komponenten auftraten.
Trotz dieser Herausforderungen zeigt der Vorstoß zu größeren und leistungsfähigeren KI-Clustern keine Anzeichen einer Verlangsamung. Elon Musk hat bereits Pläne angekündigt, den Colossus von xAI von 100.000 auf 200.000 Chips in einem einzigen Gebäude zu erweitern, mit dem Ziel, bis zum nächsten Sommer 300.000 der neuesten Chips von Nvidia zu erreichen.
Der Wettlauf um die KI-Vorherrschaft treibt auch die Nachfrage nach Nvidias Netzwerkausrüstung an, die sich schnell zu einem bedeutenden eigenständigen Geschäft entwickelt. Der Netzwerkumsatz des Unternehmens erreichte im Jahr 2024 3,13 Milliarden US-Dollar, ein Anstieg von 51,8 Prozent gegenüber dem Vorjahr. Die Netzwerkangebote von Nvidia, darunter Accelerated Ethernet Switching für KI und die Cloud, Quantum InfiniBand für KI und wissenschaftliches Rechnen sowie Bluefield Network Accelerators, sind für die Verbindung und Verwaltung dieser riesigen Chip-Cluster von entscheidender Bedeutung.
Trotz dieser enormen Ausgaben bleibt die Frage der Skalierbarkeit ungeklärt. Dylan Patel, Chefanalyst bei SemiAnalysis, sagte dem Wall Street Journal, dass es zwar keine Beweise dafür gibt, dass diese Systeme effektiv auf eine Million Chips oder ein 100-Milliarden-Dollar-System skaliert werden können, sie jedoch eine beeindruckende Skalierbarkeit von Dutzenden Chips auf 100.000 Chips gezeigt haben.