In einem neuen Brief besteht Jason Kwon, Chief Strategy Officer von OpenAI, darauf, dass die Regulierung von KI der Bundesregierung überlassen werden sollte. Wie Bloomberg bereits berichtete, sagt Kwon, dass ein neuer Gesetzentwurf zur KI-Sicherheit, der in Kalifornien erwogen wird, den Fortschritt verlangsamen und dazu führen könnte, dass Unternehmen den Staat verlassen.
Ein föderal gesteuertes Paket von KI-Richtlinien statt eines Flickenteppichs aus Landesgesetzen wird Innovationen fördern und die USA in die Lage versetzen, bei der Entwicklung globaler Standards eine Vorreiterrolle einzunehmen. Daher schließen wir uns anderen KI-Laboren, Entwicklern, Experten und Mitgliedern der kalifornischen Kongressdelegation an und lehnen SB 1047 respektvoll ab. Wir begrüßen die Gelegenheit, einige unserer wichtigsten Anliegen darzulegen.
Der Brief ist an den kalifornischen Staatssenator Scott Wiener gerichtet, der ursprünglich den Gesetzentwurf SB 1047 eingebracht hat, auch bekannt als „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act“.
Befürwortern wie Wiener zufolge legt es Standards für die Entwicklung leistungsfähigerer KI-Modelle fest, verlangt Vorkehrungen wie Sicherheitstests und andere Schutzmaßnahmen vor der Bereitstellung, sieht Schutzmaßnahmen für Mitarbeiter von KI-Laboren vor, erteilt dem Generalstaatsanwalt von Kalifornien die Befugnis, rechtliche Schritte einzuleiten, wenn KI-Modelle Schaden anrichten, und fordert die Einrichtung eines „öffentlichen Cloud-Computerclusters“ namens CalCompute.
In einer Antwort auf den am Mittwochabend veröffentlichten Brief weist Wiener darauf hin, dass die vorgeschlagenen Anforderungen für jedes Unternehmen gelten, das in Kalifornien geschäftlich tätig ist, unabhängig davon, ob es seinen Hauptsitz im Bundesstaat hat oder nicht. Das Argument „ergibt also keinen Sinn“. Er schreibt auch, dass OpenAI „… keine einzige Bestimmung des Gesetzesentwurfs kritisiert“ und schließt mit den Worten: „SB 1047 ist ein äußerst vernünftiger Gesetzentwurf, der große KI-Labore dazu auffordert, das zu tun, wozu sie sich bereits verpflichtet haben, nämlich ihre großen Modelle auf katastrophale Sicherheitsrisiken zu testen.“
Der Gesetzentwurf wartet derzeit auf die endgültige Abstimmung, bevor er auf dem Schreibtisch von Gouverneur Gavin Newsom landet.
Hier ist der vollständige Brief von OpenAI: