Im Kontext: OpenAI möchte sich von seiner Abhängigkeit von Nvidia-Chips befreien, und CEO Sam Altman glaubt, dass der beste Weg, dies zu erreichen, darin besteht, ein eigenes Halbleitergeschäft aufzubauen. Da es sich jedoch um ein teures Unterfangen handelt, bereist Altman die Welt auf der Suche nach Unterstützern. Seine letzte Station sind die Vereinigten Arabischen Emirate.
OpenAI kommt möglicherweise der Sicherung der Mittel näher, die es für den Start seines eigenen Halbleitergeschäfts benötigt, mit dem Ziel, seine Abhängigkeit von Nvidia bei KI-Prozessoren zu verringern. Einem Bericht der Financial Times zufolge befindet sich das Unternehmen in Gesprächen mit der staatlich finanzierten Investmentgesellschaft MGX aus Abu Dhabi über die Unterstützung dieses Vorhabens. Der Bericht zitiert zwei Personen, die mit den Diskussionen vertraut sind.
MGX ist ein neu aufgelegter, auf KI ausgerichteter Fonds unter dem Vorsitz des nationalen Sicherheitsberaters der VAE, Scheich Tahnoon bin Zayed al-Nahyan. Eines seiner Ziele besteht darin, Abu Dhabi als Drehscheibe für die KI-Entwicklung zu etablieren und dafür die finanziellen Ressourcen des Landes zu nutzen.
Der Bericht hebt die laufenden Bemühungen von OpenAI hervor, Investoren anzuziehen, während das Unternehmen nach einer Finanzierung für sein ehrgeiziges, wenn auch kostspieliges Unternehmen sucht. Schätzungen gehen davon aus, dass das Projekt bis zu 7 Billionen US-Dollar erfordern könnte.
Seit mindestens 2022 prüft OpenAI verschiedene Optionen für die Chipentwicklung und erwägt Möglichkeiten wie die Entwicklung eines eigenen KI-Chips, die Übernahme eines Chipherstellers, eine engere Zusammenarbeit mit anderen Anbietern wie Nvidia und die Diversifizierung seiner Lieferantenbasis über Nvidia hinaus.
Anfang dieses Jahres tauchten Berichte auf, dass Altman Gespräche mit Investoren, darunter der Regierung der Vereinigten Arabischen Emirate, führte, um Mittel in Höhe von 5 bis 7 Billionen US-Dollar für eine Technologieinitiative zu sammeln, die darauf abzielt, die Wachstumshemmnisse von OpenAI, einschließlich der Knappheit an KI-Chips, zu beseitigen. Altman bestritt, 7 Billionen US-Dollar speziell für die Chip-Entwicklung angestrebt zu haben, räumte jedoch ein, dass die erforderlichen Investitionen erheblich wären.
Altman hat die Notwendigkeit einer erhöhten Industriekapazität betont und im Februar auf X erklärt: „Der Aufbau einer groß angelegten KI-Infrastruktur und einer widerstandsfähigen Lieferkette ist für die wirtschaftliche Wettbewerbsfähigkeit von entscheidender Bedeutung. OpenAI wird versuchen, dabei zu helfen.“
Wir glauben, dass die Welt mehr KI-Infrastruktur – Fabrikkapazität, Energie, Rechenzentren usw. – benötigt, als die Menschen derzeit zu bauen planen.
Der Aufbau einer groß angelegten KI-Infrastruktur und einer widerstandsfähigen Lieferkette ist für die wirtschaftliche Wettbewerbsfähigkeit von entscheidender Bedeutung.
openai wird versuchen zu helfen!
– Sam Altman (@sama) 7. Februar 2024
Die Gründe für Altmans Ambitionen liegen auf der Hand: Es gibt einen Mangel an GPUs, die für den Betrieb der OpenAI-Software erforderlich sind, und die mit dem Betrieb der Hardware verbundenen Kosten sind außerordentlich hoch.
Altman hat sich häufig über den Mangel an Chips beschwert und darauf hingewiesen, dass OpenAI durch die GPU-Verfügbarkeit stark eingeschränkt ist, was zu Verzögerungen bei vielen ihrer kurzfristigen Pläne geführt hat. Er betonte auch, dass sich die Hauptbeschwerde der Kunden auf die Zuverlässigkeit und Geschwindigkeit der API beziehe, wobei ein Großteil des Problems auf GPU-Mangel zurückzuführen sei.
Die Verfügbarkeit von GPUs stellt auch eine Herausforderung für die Feinabstimmung der API dar, da für deren Verwaltung erhebliche Rechenressourcen erforderlich sind. Darüber hinaus schränkt das Problem der GPU-Verfügbarkeit die Kapazität des dedizierten Angebots ein, das Kunden eine private Kopie des Modells zur Verfügung stellt.
Dann sind noch die Kosten zu berücksichtigen. OpenAI basiert auf einem von Microsoft entwickelten Supercomputer, der 10.000 GPUs von Nvidia nutzt, was den Betrieb von ChatGPT zu einem teuren System macht. Die Bernstein-Analystin Stacy Rasgon schätzt, dass jede Abfrage etwa vier Cent kostet. Wenn ChatGPT-Anfragen ein Zehntel des Umfangs der Google-Suche erreichen würden, wären zur Aufrechterhaltung des Betriebs zunächst GPUs im Wert von etwa 48,1 Milliarden US-Dollar und Chips im Wert von etwa 16 Milliarden US-Dollar pro Jahr erforderlich.