Großes Zitat: Der hohe Energiebedarf von GenAI und anderen LLMs beschleunigt den Bedarf an energieeffizienteren Systemen. AMDs CEO Lisa Su ist zuversichtlich, dass das Unternehmen auf dem richtigen Weg ist, die Energieeffizienz von Rechenzentren in den nächsten drei Jahren um das Hundertfache zu steigern.
Wohin man auch schaut, gibt es neue KI-Dienste, die Ihr Privat- oder Berufsleben verbessern. Google Search integriert jetzt seine Gemini-KI zur Zusammenfassung von Suchergebnissen, doch dies kostet im Vergleich zu einer Suche ohne KI das Zehnfache an Energie (mit schlechten Ergebnissen). Die weltweite Popularität generativer KI hat den Bedarf an einer schnellen Erweiterung von Rechenzentren und einem höheren Energieverbrauch beschleunigt.
Goldman Sachs schätzt, dass der Strombedarf von Rechenzentren bis 2030 um 160 % steigen wird. Dies ist ein riesiges Problem für Länder wie die USA und Europa, wo das Durchschnittsalter der regionalen Stromnetze 50 bzw. 40 Jahre beträgt. Im Jahr 2022 verbrauchten Rechenzentren 3 % des US-Stroms, und Prognosen gehen davon aus, dass dieser Anteil bis 2030 auf 8 % steigen wird. „Ohne einen Durchbruch ist dies nicht möglich“, sagt OpenAI-Mitbegründer Sam Altman.
AMD-CEO Lisa Su diskutierte auf der ITF World 2024-Konferenz vergangene Erfolge und zukünftige Pläne zur Verbesserung der Effizienz von Rechenknoten. Bereits 2014 verpflichtete sich AMD, seine mobilen CPUs bis 2020 um 25 % effizienter zu machen (25×20). Mit einer Effizienz von 31,7 % übertrafen sie dieses Ziel.
Im Jahr 2021 erkannte AMD das exponentielle Wachstum der KI-Arbeitslasten und den Strombedarf zum Betrieb dieser komplexen Systeme. Um den Strombedarf zu senken, setzte AMD ein 30×25-Ziel für die Effizienz der Rechenknoten, indem es sich auf mehrere Schlüsselbereiche konzentrierte.
Es beginnt mit Verbesserungen im Prozessknoten und der Verpackung, die die grundlegenden Bausteine der CPU/GPU-Herstellung darstellen. Durch die Verwendung von 3-nm-Gate-All-Around-Transistoren (GAA), einer Weiterentwicklung der FinFET-3D-Transistoren, werden Energieeffizienz und Leistung pro Watt verbessert. Darüber hinaus gibt die kontinuierliche Verfeinerung der Verpackungstechniken (z. B. Chiplets, 3D-Stapeln) AMD die Flexibilität, verschiedene Komponenten in einem einzigen Paket auszutauschen.
Der nächste Schwerpunkt liegt auf KI-optimierten beschleunigten Hardwarearchitekturen. Diese werden als Neural Processing Units (NPUs) bezeichnet und sind seit Jahren in mobilen SoCs wie der Snapdragon 8 Gen-Serie zu finden. Anfang dieses Jahres brachte AMD den Ryzen 8700G auf den Markt, den ersten Desktop-Prozessor mit integrierter KI-Engine. Diese dedizierte Hardware ermöglicht es der CPU, KI-rechenintensive Aufgaben auf die NPU auszulagern, was die Effizienz verbessert und den Stromverbrauch senkt.
Die letzten Säulen dieses 30×25-Ziels sind die Feinabstimmung auf Systemebene und die gemeinsame Entwicklung von Software und Hardware. Die Feinabstimmung auf Systemebene ist ein weiterer Zweig der Initiative für fortschrittliche Verpackungen, bei der es darum geht, den Energieverbrauch für die physische Datenübertragung innerhalb dieser Computercluster zu senken. Die gemeinsame Entwicklung von Software und Hardware zielt darauf ab, KI-Algorithmen zu verbessern, damit sie effektiver mit NPUs der nächsten Generation zusammenarbeiten.
Lisa Su ist zuversichtlich, dass AMD auf dem richtigen Weg ist, um das 30×25-Ziel zu erreichen, sieht aber einen Weg, bis 2027 eine 100-fache Verbesserung zu erreichen. AMD und andere Branchenführer tragen alle dazu bei, den Energiebedarf für unser KI-gestütztes Leben in diesem neuen Computerzeitalter zu decken.