Write a journalistic article in German fully based on
Was ist gerade passiert? Microsoft hat BitNet B1.58 2B4T eingeführt, einen neuen Typ des großsprachigen Modells, der für außergewöhnliche Effizienz entwickelt wurde. Im Gegensatz zu herkömmlichen KI-Modellen, die auf 16- oder 32-Bit-Schwimmpunktzahlen angewiesen sind, um jedes Gewicht darzustellen, verwendet BitNet nur drei diskrete Werte: -1, 0 oder +1. Dieser als ternäre Quantisierung bekannte Ansatz ermöglicht es, dass jedes Gewicht in nur 1,58 Bit gespeichert wird. Das Ergebnis ist ein Modell, das die Speicherverwendung dramatisch reduziert und auf Standardhardware weitaus einfacher ausgeführt wird, ohne dass der High-End-GPUs, der normalerweise für groß angelegte KI benötigt wird, erforderlich ist.
Das Bitnet B1.58 2B4T -Modell wurde von der allgemeinen Gruppe der allgemeinen künstlichen Intelligenz von Microsoft entwickelt und enthält zwei Milliarden Parameter – interne Werte, die es dem Modell ermöglichen, Sprache zu verstehen und zu generieren. Um seine Gewichte mit niedriger Präzision zu kompensieren, wurde das Modell auf einem massiven Datensatz von vier Billionen Token geschult, der ungefähr dem Inhalt von 33 Millionen Büchern entspricht. Dieses umfangreiche Training ermöglicht es BitNet, mit anderen führenden Modellen ähnlicher Größe, wie dem LLAMA 3.2 1B von META, und dem LLAMA 3.2 1B von Google, der Gemma 3 1B von Google und Alibabas QWEN 2.5 1,5B, besser ab.
Bei Benchmark-Tests zeigte BitNet B1.58 2B4T eine starke Leistung in verschiedenen Aufgaben, einschließlich mathematischer Probleme und Fragen, die im gesunden Menschenverstand erforderlich sind. Bei bestimmten Bewertungen übertraf es sogar seine Konkurrenten.
Was Bitnet wirklich auszeichnet, ist die Speichereffizienz. Das Modell benötigt nur 400 MB Speicher, weniger als ein Drittel der vergleichbaren Modelle. Infolgedessen kann es auf Standard-CPUs, einschließlich des M2-Chips von Apple, reibungslos ausgeführt werden, ohne sich auf High-End-GPUs oder spezialisierte KI-Hardware zu verlassen.
Diese Effizienzstufe wird durch ein benutzerdefiniertes Software -Framework namens Bitnet.cpp ermöglicht, das optimiert ist, dass sie die ternären Gewichte des Modells voll ausnutzen. Das Framework sorgt für eine schnelle und leichte Leistung auf alltäglichen Computergeräten.
Standard -KI -Bibliotheken wie die Transformatoren von Hugging Face bieten nicht die gleichen Leistungsvorteile wie Bitnet B1.58 2B4T, wodurch die Verwendung des benutzerdefinierten Bitnet.cpp -Frameworks wesentlich ist. Das Rahmen ist derzeit auf GitHub verfügbar und ist derzeit für CPUs optimiert. Die Unterstützung für andere Prozessortypen ist jedoch in zukünftigen Updates geplant.
Die Idee, die Modellgenauigkeit zum Speichern von Speicher zu reduzieren, ist nicht neu, da die Forscher die Modellkomprimierung seit langem untersucht haben. Die meisten vergangenen Versuche umfassten jedoch die Konvertierung von Modellen mit Vollverdünnungen nach dem Training, häufig auf Kosten der Genauigkeit. Bitnet B1.58 2B4T verfolgt einen anderen Ansatz: Es wird von Grund auf nur drei Gewichtswerte (-1, 0 und +1) trainiert. Dies ermöglicht es ihm, viele der in früheren Methoden beobachteten Leistungsverluste zu vermeiden.
Diese Verschiebung hat erhebliche Auswirkungen. Durch die Durchführung großer KI -Modelle erfordert in der Regel leistungsstarke Hardware und erhebliche Energie, Faktoren, die die Kosten und die Umweltauswirkungen verbessern. Da Bitnet auf extrem einfache Berechnungen beruht – hauptsächlich Ergänzungen anstelle von Multiplikationen – verbraucht es weitaus weniger Energie.
Microsoft-Forscher schätzen, dass sie 85 bis 96 Prozent weniger Energie verbraucht als vergleichbare Modelle mit vollem Voraus. Dies könnte die Tür für die Ausführung fortschrittlicher KI direkt auf persönlichen Geräten öffnen, ohne dass Cloud-basierte Supercomputer erforderlich sind.
Das heißt, Bitnet B1.58 2B4T hat einige Einschränkungen. Derzeit unterstützt es nur eine bestimmte Hardware und erfordert das benutzerdefinierte Bitnet.cpp -Rahmen. Sein Kontextfenster – die Menge an Text, die es auf einmal verarbeiten kann – ist kleiner als die der am weitesten fortgeschrittenen Modelle.
Die Forscher untersuchen immer noch, warum das Modell mit einer derart vereinfachten Architektur so gut funktioniert. Zukünftige Arbeit zielt darauf ab, ihre Fähigkeiten zu erweitern, einschließlich der Unterstützung für mehr Sprachen und längere Texteingaben.