Write a journalistic article in German fully based on
Können die USA KI sinnvoll regulieren? Es ist noch überhaupt nicht klar. Die politischen Entscheidungsträger haben in den letzten Monaten Fortschritte erzielt, mussten aber auch Rückschläge hinnehmen, was verdeutlicht, wie schwierig Gesetze sind, die der Technologie Schranken auferlegen.
Im März war Tennessee der erste Bundesstaat, der Synchronsprecher vor unbefugtem KI-Klonen schützte. In diesem Sommer hat Colorado einen abgestuften, risikobasierten Ansatz für die KI-Politik eingeführt. Und im September unterzeichnete der Gouverneur von Kalifornien, Gavin Newsom, Dutzende KI-bezogene Sicherheitsgesetze, von denen einige von Unternehmen verlangen, Einzelheiten über ihre KI-Ausbildung offenzulegen.
Den USA fehlt jedoch immer noch eine föderale KI-Politik, die mit dem KI-Gesetz der EU vergleichbar ist. Selbst auf Landesebene stößt die Regulierung weiterhin auf große Hindernisse.
Nach einem langwierigen Kampf mit Sonderinteressen legte Gouverneur Newsom sein Veto gegen den Gesetzentwurf SB 1047 ein, ein Gesetz, das Unternehmen, die KI entwickeln, weitreichende Sicherheits- und Transparenzanforderungen auferlegt hätte. Ein weiterer kalifornischer Gesetzentwurf, der sich gegen die Verbreiter von KI-Deepfakes in sozialen Medien richtet, wurde diesen Herbst bis zum Ausgang eines Rechtsstreits ausgesetzt.
Laut Jessica Newman, Co-Direktorin des AI Policy Hub an der UC Berkeley, gibt es jedoch Grund zum Optimismus. In einer Podiumsdiskussion zum Thema KI-Governance auf der TechCrunch Disrupt 2024 stellte Newman fest, dass viele Bundesgesetze möglicherweise nicht im Hinblick auf KI verfasst wurden, aber dennoch für KI gelten – etwa Antidiskriminierungs- und Verbraucherschutzgesetze.
„Wir hören oft, dass die USA im Vergleich zu dem, was in der EU passiert, eine Art ‚Wilder Westen‘ sind“, sagte Newman, „aber ich denke, das ist übertrieben und die Realität ist nuancierter.“
Newman bringt es auf den Punkt: Die Federal Trade Commission hat Unternehmen, die heimlich Daten sammeln, gezwungen, ihre KI-Modelle zu löschen, und untersucht, ob der Verkauf von KI-Startups an große Technologieunternehmen gegen Kartellvorschriften verstößt. Unterdessen hat die Federal Communications Commission KI-gestützte Robocalls für illegal erklärt und eine Regelung erlassen, die die Offenlegung von KI-generierten Inhalten in politischer Werbung vorsieht.
Präsident Joe Biden hat auch versucht, bestimmte KI-Regeln durchzusetzen. Vor etwa einem Jahr unterzeichnete Biden die AI Executive Order, die die freiwilligen Berichts- und Benchmarking-Praktiken unterstützt, für deren Umsetzung sich viele KI-Unternehmen bereits entschieden haben.
Eine Folge der Durchführungsverordnung war das US AI Safety Institute (AISI), eine Bundesbehörde, die Risiken in KI-Systemen untersucht. Das AISI ist innerhalb des National Institute of Standards and Technology tätig und unterhält Forschungspartnerschaften mit großen KI-Laboren wie OpenAI und Anthropic.
Dennoch könnte die AISI durch eine einfache Aufhebung von Bidens Durchführungsverordnung aufgelöst werden. Im Oktober forderte eine Koalition aus über 60 Organisationen den Kongress auf, noch vor Jahresende ein Gesetz zur Kodifizierung des AISI zu erlassen.
„Ich denke, dass wir alle als Amerikaner ein gemeinsames Interesse daran haben, sicherzustellen, dass wir die potenziellen Nachteile der Technologie abmildern“, sagte AISI-Direktorin Elizabeth Kelly, die ebenfalls an dem Panel teilnahm.
Gibt es also Hoffnung auf eine umfassende KI-Regulierung in den Staaten? Das Scheitern von SB 1047, das Newman als „leichten“ Gesetzentwurf mit Input aus der Industrie bezeichnete, ist nicht gerade ermutigend. SB 1047 wurde vom kalifornischen Senator Scott Wiener verfasst und wurde von vielen im Silicon Valley abgelehnt, darunter hochkarätige Technologen wie Metas Chef-KI-Wissenschaftler Yann LeCun.
Vor diesem Hintergrund sagte Wiener, ein weiterer Disrupt-Diskussionsteilnehmer, er hätte den Gesetzentwurf nicht anders formuliert – und er ist zuversichtlich, dass sich eine umfassende KI-Regulierung letztendlich durchsetzen wird.
„Ich denke, es hat den Grundstein für zukünftige Bemühungen gelegt“, sagte er. „Hoffentlich können wir etwas tun, das mehr Leute zusammenbringt, denn die Realität, die alle großen Labore bereits erkannt haben, ist, dass die Risiken bestehen [of AI] sind real und wir wollen sie testen.“
Tatsächlich warnte Anthropic letzte Woche vor einer KI-Katastrophe, wenn Regierungen in den nächsten 18 Monaten keine Vorschriften umsetzen.
Die Gegner haben ihre Rhetorik nur verdoppelt. Letzten Montag bezeichnete der Gründer von Khosla Ventures, Vinod Khosla, Wiener als „völlig ahnungslos“ und „nicht qualifiziert“, die tatsächlichen Gefahren der KI zu regulieren. Und Microsoft und Andreessen Horowitz haben eine Erklärung veröffentlicht, in der sie sich gegen KI-Vorschriften aussprechen, die ihre finanziellen Interessen beeinträchtigen könnten.
Newman geht jedoch davon aus, dass der Druck, den wachsenden Flickenteppich der KI-Regeln von Staat zu Staat zu vereinheitlichen, letztendlich zu einer stärkeren gesetzgeberischen Lösung führen wird. Anstelle eines Konsenses über ein Regulierungsmodell haben die politischen Entscheidungsträger der Bundesstaaten allein in diesem Jahr fast 700 KI-Gesetze eingeführt.
„Ich habe den Eindruck, dass Unternehmen kein Umfeld mit einem Patchwork-Regulierungssystem wollen, in dem jeder Staat anders ist“, sagte sie, „und ich denke, dass der Druck zunehmen wird, auf Bundesebene etwas zu schaffen, das mehr Klarheit schafft und einiges reduziert.“ dieser Unsicherheit.“