Write a journalistic article in German fully based on
Das Gesamtbild: Eine große Herausforderung bei der Analyse eines schnell wachsenden Unternehmens wie Nvidia besteht darin, all die verschiedenen Unternehmen, an denen es teilnimmt, zu verstehen, die zahlreichen Produkte, die es angekündigt hat, und die Gesamtstrategie, die es verfolgt. Nach der Keynote -Rede von CEO Jensen Huang auf der jährlichen GTC -Konferenz des Unternehmens in diesem Jahr war die Aufgabe besonders entmutigend. Wie üblich bedeckte Huang eine enorme Auswahl an Themen über eine lange Präsentation und ließ sich ehrlich gesagt mehr als ein paar Menschen an den Kopf kratzten.
Während einer aufschlussreichen Q & A -Sitzung mit Branchenanalysten einige Tage später teilte Huang jedoch mehrere Erkenntnisse mit, die plötzlich alle verschiedenen Produkt- und Partnerschaftsankündigungen sowie das Denken dahinter Crystal Clear machten.
Im Wesentlichen sagte er, dass Nvidia jetzt ein AI-Infrastrukturanbieter ist, der eine Plattform aus Hardware und Software aufbaute, die große Cloud-Computeranbieter, Tech-Anbieter und IT-Abteilungen für IT-Abteilungen von IT-Abteilungen von AI verwenden können.
Unnötig zu erwähnen, dass dies ein außergewöhnlich weit entfernter seiner Rolle als Anbieter von Grafikchips für PC -Spiele oder sogar aufgrund seiner Bemühungen, die Erstellung von Algorithmen für maschinelles Lernen voranzutreiben, oder sogar von seinen Bemühungen darstellt. Es vereint jedoch mehrere scheinbar unterschiedliche Ankündigungen aus jüngsten Veranstaltungen und liefert einen klaren Hinweis darauf, wohin das Unternehmen führt.
Nvidia bewegt sich über seine Ursprünge und seinen Ruf als Halbleiter-Designhaus in die entscheidende Rolle eines Infrastruktur-Enablers für die zukünftige Welt der KI-betriebenen Fähigkeiten-oder, wie Huang es beschrieb, einen „Intelligenzhersteller“.
In seiner GTC -Keynote diskutierte Huang die Bemühungen von NVIDIA, die effiziente Generation von Token für moderne Foundation -Modelle zu ermöglichen, und verknüpfte diese Token mit Intelligenz, die Unternehmen für die zukünftige Einnahmeerzeugung nutzen werden. Er beschrieb diese Initiativen als KI -Fabrik, das für ein umfangreiches Angebot von Branchen relevant ist.
Obwohl ehrgeizig, werden die Anzeichen einer aufkommenden informationsgesteuerten Wirtschaft-und der Effizienz der KI in die traditionelle Fertigung-immer deutlicher. Von Unternehmen, die ausschließlich im Rahmen von KI -Diensten (wie ChatGPT) bis hin zur Roboterherstellung und -verteilung traditioneller Waren gebaut wurden, ziehen wir zweifellos in eine neue wirtschaftliche Ära ein.
In diesem Zusammenhang skizzierte Huang ausführlich, wie die neuesten Angebote von NVIDIA eine schnellere und effizientere Token -Schöpfung ermöglichen. Er befasste sich zunächst mit der Inferenz von AI, die allgemein als einfacher angesehen wird als die KI -Schulungsprozesse, die Nvidia ursprünglich in Bedeutung brachten. Huang argumentierte jedoch, dass die Inferenz, insbesondere bei der Verwendung mit neuen Argumentationsmodellen der Kette wie Deepseek R1 und OpenAI O1, ungefähr 100-mal mehr Rechenressourcen als aktuelle One-Shot-Inferenzmethoden erfordern. Infolgedessen besteht kaum Bedenken, dass effizientere Sprachmodelle die Nachfrage nach Computerinfrastruktur verringern. In der Tat bleiben wir in den frühen Stadien der AI -Fabrik -Infrastrukturentwicklung.
Eine der wichtigsten, aber am wenigsten verstandenen Ankündigungen von Huang war ein neues Softwaretool namens NVIDIA Dynamo, das den Inferenzprozess für fortschrittliche Modelle verbessern soll. Dynamo, eine aktualisierte Version der Triton Inference Server -Software von NVIDIA, verteilt die GPU -Ressourcen dynamisch für verschiedene Inferenzstadien wie Vorauszahlungen und Dekodien mit jeweils unterschiedlichen Rechenanforderungen. Es werden auch dynamische Informationen zur Caches erstellt und Daten über verschiedene Speichertypen hinweg effizient verwaltet.
Dynamo arbeitet ähnlich wie die Orchestrierung von Containern von Docker in Cloud Computing intelligent, und verwaltet intelligent für die Token -Generation in AI -Fabrikumgebungen Ressourcen und Daten. Nvidia hat Dynamo als „Betriebssystem der AI -Fabriken“ bezeichnet. Praktisch gesehen ermöglicht Dynamo Unternehmen, bis zu 30 -mal mehr Inferenzanforderungen mit denselben Hardware -Ressourcen zu bearbeiten.
Natürlich wäre es nicht GTC, wenn Nvidia auch keine Chip- und Hardware -Ankündigungen enthält und diesmal viel gab. Huang präsentierte eine Roadmap für zukünftige GPUs, einschließlich eines Updates der aktuellen Blackwell -Serie mit dem Namen Blackwell Ultra (GB300 -Serie), das einen verbesserten HBM -Speicher an Bord für eine verbesserte Leistung bietet.
Er enthüllte auch die neue Vera Rubin-Architektur mit einer neuen ARM-basierten CPU namens Vera und einer GPU der nächsten Generation namens Rubin, die jeweils wesentlich mehr Kerne und fortschrittliche Fähigkeiten enthielt. Huang deutete sogar auf die Generation darüber hin, die nach dem Mathematiker Richard Feynman benannt wurde und die Roadmap von Nvidia in 2028 und darüber hinaus projizierte.
Während der anschließenden Q & A -Sitzung erklärte Huang, dass die Enthüllung zukünftiger Produkte im Voraus für Ökosystempartner von entscheidender Bedeutung ist, sodass sie sich angemessen auf bevorstehende technologische Veränderungen vorbereiten können.
Huang betonte auch mehrere Partnerschaften, die bei der diesjährigen GTC angekündigt wurden. Die erhebliche Präsenz anderer Tech -Anbieter zeigte ihre Bereitschaft, an diesem wachsenden Ökosystem teilzunehmen. Auf der Rechenseite erklärte Huang, dass die vollständige Maximierung der KI -Infrastruktur in allen herkömmlichen Bereichen der Computerstapel, einschließlich Netzwerk und Speicher, Fortschritte erforderlich machte.
Zu diesem Zweck stellte Nvidia eine neue Silicon Photonics-Technologie für optische Netzwerke zwischen GPU-beschleunigten Server-Racks vor und diskutierte eine Partnerschaft mit Cisco. Die Cisco-Partnerschaft ermöglicht Cisco Silicon in Routern und Switches, die zur Integration von GPU-Beschleunigungs-AI-Fabriken in Unternehmensumgebungen sowie eine gemeinsame Softwareverwaltungsschicht ausgelegt sind.
Für die Speicherung arbeitete NVIDIA mit führenden Hardwareanbietern und Datenplattformunternehmen zusammen, um sicherzustellen, dass ihre Lösungen die GPU -Beschleunigung nutzen und so den Markteinfluss von NVIDIA erweitern könnten.
Und schließlich führte Huang auf die Diversifizierungsstrategie auf und führte mehr Arbeit ein, die das Unternehmen für autonome Fahrzeuge (insbesondere einen Deal mit GM) und Robotik ausführt, die er beide als Teil der nächsten großen Bühne in der AI -Entwicklung beschrieb: physische KI.
Nvidia weiß, dass es bedeutet, dass sie ein Infrastruktur- und Ökosystemanbieter sind, der sowohl direkt als auch indirekt profitieren kann, wenn die Flut von AI -Computing steigt, auch wenn ihr direkter Wettbewerb verpflichtet ist, zu steigen
NVIDIA bietet seit vielen Jahren Komponenten für Autohersteller und hat auch seit mehreren Jahren Robotikplattformen. Was jetzt jedoch anders ist, ist, dass sie an die KI-Infrastruktur zurückgeführt werden, mit der die Modelle, die in diese Geräte eingesetzt werden, besser geschult werden können, und die Echtzeit-Inferenzdaten bereitzustellen, die für den Betrieb in der realen Welt erforderlich sind. Während diese Bindung an die Infrastruktur wohl ein relativ bescheidener Fortschritt ist, macht es im größeren Kontext der Gesamtstrategie der KI -Infrastruktur des Unternehmens sinnvoller und hilft dabei, viele der Initiativen des Unternehmens in ein zusammenhängendes Ganzes zusammenzufassen.
Es ist nicht einfach, für all die verschiedenen Elemente, die Huang und Nvidia bei der diesjährigen GTC vorgestellt haben, zu verstehen, insbesondere aufgrund der Feuerwehrarztin der verschiedenen Ankündigungen und der viel breiteren Reichweite der Ambitionen des Unternehmens. Sobald die Stücke jedoch zusammenkommen, wird die Strategie von Nvidia klar: Das Unternehmen übernimmt eine viel größere Rolle als je zuvor und ist gut positioniert, um seine ehrgeizigen Ziele zu erreichen.
Letztendlich weiß Nvidia, dass es bedeutet, dass sie als Infrastruktur und Ökosystemanbieter sowohl direkt als auch indirekt profitieren können, wenn die allgemeine Flut des AI -Computers steigt, auch wenn ihr direkter Wettbewerb steigt. Es ist eine clevere Strategie, die zu einem noch größeren Wachstum für die Zukunft führen könnte.
Bob O’Donnell ist Gründer und Chefanalytiker von Technalysis Research, LLC, einem Technologieberatungsunternehmen, das der Technologie -Industrie und der professionellen Finanzgemeinschaft strategische Beratung und Marktforschungsdienste anbietet. Sie können ihm auf Twitter @BobodTech folgen