MetaPlatforms hat Details zu seinem neuesten benutzerdefinierten KI-Beschleunigerchip veröffentlicht.
Die Pläne von Meta, eine neue Iteration eines proprietären Rechenzentrumschips auf den Markt zu bringen, um den wachsenden Rechenanforderungen beim Ausführen von KI-Anwendungen auf Facebook, Instagram und WhatsApp gerecht zu werden, wurden Anfang des Jahres bekannt gegeben. Dieser Chip, der intern den Spitznamen „Artemis“ trägt, soll Metas Abhängigkeit von den KI-Chips von Nvidia verringern und die Gesamtenergiekosten senken.
In einem Blogbeitrag verriet das Unternehmen, dass das Design dieses Chips vor allem darauf abzielt, ein optimales Gleichgewicht zwischen Rechenleistung, Speicherbandbreite und Speicherkapazität zu erreichen, um Ranking- und Empfehlungsmodellen gerecht zu werden.
Der neu eingeführte Chip heißt Meta Training and Inference Accelerator (MTIA). Es ist Teil der größeren kundenspezifischen Siliziuminitiative von Meta, die die Erforschung anderer Hardwaresysteme umfasst. Neben der Chipentwicklung hat Meta stark in die Softwareentwicklung investiert, um die Leistungsfähigkeit seiner Infrastruktur effizient zu nutzen.
Darüber hinaus investiert das Unternehmen Milliarden in den Kauf von Nvidia- und anderen KI-Chips, wobei CEO Mark Zuckerberg Pläne zum Erwerb von rund 350.000 Flaggschiff-Chips ankündigt. H100-Chips von Nvidia in diesem Jahr. In Kombination mit Chips anderer Anbieter will Meta bis Ende des Jahres umgerechnet 600.000 H100-Chips akkumulieren.
Der Chip wird von Taiwan Semiconductor Manufacturing Co im 5-nm-Verfahren hergestellt. Meta gibt an, die dreifache Leistung seines Vorgängers zu bieten.
Der Chip wurde bereits in Rechenzentren eingesetzt und dient bereits KI-Anwendungen.
Geschrieben von Alius Noreïka
Erfahren Sie mehr:
Was sind 2D-Materialien und warum sind sie für Wissenschaftler interessant?
source link Almouwatin