Meta Platforms hat Einzelheiten zu seinem neuesten maßgeschneiderten Beschleunigerchip für künstliche Intelligenz bekannt gegeben.
Metas Pläne, eine neue Iteration eines proprietären Rechenzentrumschips auf den Markt zu bringen, um den steigenden Rechenanforderungen für die Ausführung von KI-Anwendungen auf Facebook, Instagram und WhatsApp gerecht zu werden, wurden Anfang des Jahres gemeldet. Dieser intern als „Artemis“ bezeichnete Chip soll Metas Abhängigkeit von den KI-Chips von Nvidia verringern und die Gesamtenergiekosten senken.
In einem Blogbeitrag enthüllte das Unternehmen, dass das Design dieses Chips in erster Linie darauf ausgerichtet ist, ein optimales Gleichgewicht zwischen Rechenleistung, Speicherbandbreite und Speicherkapazität zu erreichen, um Ranking- und Empfehlungsmodellen gerecht zu werden.
Der neu eingeführte Chip heißt Meta Training and Inference Accelerator (MTIA). Es ist Teil der umfangreichen Initiative von Meta für kundenspezifische Siliziumkomponenten, die auch die Erforschung anderer Hardwaresysteme umfasst. Neben der Chipentwicklung hat Meta stark in die Softwareentwicklung investiert, um die Leistungsfähigkeit seiner Infrastruktur effizient zu nutzen.
Darüber hinaus investiert das Unternehmen Milliarden in die Beschaffung von Nvidia- und anderen KI-Chips. CEO Mark Zuckerberg kündigt Pläne an, in diesem Jahr etwa 350.000 Flaggschiff-H100-Chips von Nvidia zu erwerben. In Kombination mit Chips anderer Anbieter strebt Meta an, bis zum Jahresende den Gegenwert von 600.000 H100-Chips zu erreichen.
Der Chip wird von Taiwan Semiconductor Manufacturing Co im 5-nm-Verfahren hergestellt. Meta behauptet, dass es die dreifache Leistung seines Vorgängers bietet.
Der Chip wurde bereits in Rechenzentren eingesetzt und dient bereits KI-Anwendungen.
Geschrieben von Alius Noreika
source link eu news