Die in Verhandlungen mit den Mitgliedstaaten im Dezember 2023 vereinbarte Verordnung wurde von den Abgeordneten mit 523 Ja-Stimmen, 46 Nein-Stimmen und 49 Enthaltungen gebilligt.
Ziel ist es, Grundrechte, Demokratie, Rechtsstaatlichkeit und ökologische Nachhaltigkeit vor hochriskanter KI zu schützen und gleichzeitig Innovationen zu fördern und Europa als Vorreiter auf diesem Gebiet zu etablieren. Die Verordnung legt Verpflichtungen für KI auf der Grundlage ihrer potenziellen Risiken und des Ausmaßes ihrer Auswirkungen fest.
Verbotene Anwendungen
Die neuen Regeln verbieten bestimmte KI-Anwendungen, die die Rechte der Bürger gefährden, darunter biometrische Kategorisierungssysteme auf der Grundlage sensibler Merkmale und das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen zur Erstellung von Gesichtserkennungsdatenbanken. Emotionserkennung am Arbeitsplatz und in Schulen, soziale Bewertung, vorausschauende Polizeiarbeit (wenn sie ausschließlich auf der Profilerstellung einer Person oder der Bewertung ihrer Eigenschaften basiert) und KI, die menschliches Verhalten manipuliert oder die Schwachstellen von Menschen ausnutzt, werden ebenfalls verboten.
Ausnahmen für die Strafverfolgung
Der Einsatz biometrischer Identifikationssysteme (RBI) durch Strafverfolgungsbehörden ist grundsätzlich verboten, außer in erschöpfend aufgeführten und eng definierten Situationen. „Echtzeit“-RBI kann nur eingesetzt werden, wenn strenge Sicherheitsvorkehrungen eingehalten werden, z. B. ist ihre Verwendung zeitlich und räumlich begrenzt und unterliegt einer spezifischen vorherigen gerichtlichen oder behördlichen Genehmigung. Solche Einsatzmöglichkeiten können beispielsweise die gezielte Suche nach einer vermissten Person oder die Verhinderung eines Terroranschlags sein. Die nachträgliche Nutzung solcher Systeme („Post-Remote-RBI“) gilt als risikoreicher Anwendungsfall, der eine gerichtliche Genehmigung erfordert und mit einer Straftat verbunden ist.
Pflichten für Hochrisikosysteme
Klare Verpflichtungen sind auch für andere KI-Systeme mit hohem Risiko vorgesehen (aufgrund ihres erheblichen potenziellen Schadens für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit). Beispiele für KI-Anwendungen mit hohem Risiko sind kritische Infrastrukturen, allgemeine und berufliche Bildung, Beschäftigung, wesentliche private und öffentliche Dienste (z. B. Gesundheitswesen, Banken), bestimmte Systeme der Strafverfolgung, Migration und Grenzverwaltung, Justiz und demokratische Prozesse (z. B. Beeinflussung von Wahlen). . Solche Systeme müssen Risiken bewerten und reduzieren, Nutzungsprotokolle führen, transparent und genau sein und eine menschliche Aufsicht gewährleisten. Bürger haben das Recht, Beschwerden über KI-Systeme einzureichen und Erklärungen zu Entscheidungen zu erhalten, die auf KI-Systemen mit hohem Risiko basieren und ihre Rechte beeinträchtigen.
Transparenzanforderungen
Allgemeine KI-Systeme (GPAI) und die GPAI-Modelle, auf denen sie basieren, müssen bestimmte Transparenzanforderungen erfüllen, einschließlich der Einhaltung des EU-Urheberrechts und der Veröffentlichung detaillierter Zusammenfassungen der für Schulungen verwendeten Inhalte. Für die leistungsfähigeren GPAI-Modelle, die systemische Risiken darstellen könnten, werden zusätzliche Anforderungen gelten, darunter die Durchführung von Modellbewertungen, die Bewertung und Minderung systemischer Risiken sowie die Berichterstattung über Vorfälle.
Darüber hinaus müssen künstliche oder manipulierte Bilder, Audio- oder Videoinhalte („Deepfakes“) eindeutig als solche gekennzeichnet werden.
Maßnahmen zur Innovations- und KMU-Förderung
Auf nationaler Ebene müssen regulatorische Sandboxen und reale Tests eingerichtet und für KMU und Start-ups zugänglich gemacht werden, um innovative KI zu entwickeln und zu trainieren, bevor sie auf den Markt gebracht wird.
Zitate
Während der Plenardebatte am Dienstag sagte der Mitberichterstatter des Binnenmarktausschusses Brando Benifei (S&D, Italien): „Wir haben endlich das weltweit erste verbindliche Gesetz zu künstlicher Intelligenz, um Risiken zu reduzieren, Chancen zu schaffen, Diskriminierung zu bekämpfen und Transparenz zu schaffen.“ Dank des Parlaments werden inakzeptable KI-Praktiken in Europa verboten und die Rechte von Arbeitnehmern und Bürgern geschützt. Das AI Office wird nun eingerichtet, um Unternehmen dabei zu unterstützen, mit der Einhaltung der Regeln zu beginnen, bevor diese in Kraft treten. Wir haben dafür gesorgt, dass der Mensch und die europäischen Werte im Mittelpunkt der Entwicklung der KI stehen.“
Der Koberichterstatter des Ausschusses für bürgerliche Freiheiten, Dragos Tudorache (Renew, Rumänien), sagte: „Die EU hat geliefert. Wir haben das Konzept der künstlichen Intelligenz mit den Grundwerten verknüpft, die die Grundlage unserer Gesellschaften bilden. Es liegt jedoch noch viel Arbeit vor uns, die über das KI-Gesetz selbst hinausgeht. KI wird uns dazu bringen, den Gesellschaftsvertrag im Herzen unserer Demokratien, unsere Bildungsmodelle, Arbeitsmärkte und die Art und Weise, wie wir Kriege führen, zu überdenken. Das KI-Gesetz ist ein Ausgangspunkt für ein neues Governance-Modell, das auf Technologie basiert. Wir müssen uns jetzt darauf konzentrieren, dieses Gesetz in die Praxis umzusetzen.“
Nächste Schritte
Die Regelung steht noch unter dem Vorbehalt einer abschließenden juristischen und sprachwissenschaftlichen Prüfung und wird voraussichtlich noch vor Ende der Legislaturperiode (im sogenannten Korrigendumsverfahren) endgültig verabschiedet. Das Gesetz muss außerdem vom Rat offiziell gebilligt werden.
Es tritt zwanzig Tage nach seiner Veröffentlichung im Amtsblatt in Kraft und ist 24 Monate nach seinem Inkrafttreten in vollem Umfang anwendbar, mit Ausnahme von: Verboten verbotener Praktiken, die sechs Monate nach dem Datum des Inkrafttretens gelten; Verhaltenskodizes (neun Monate nach Inkrafttreten); allgemeine KI-Regeln einschließlich Governance (12 Monate nach Inkrafttreten); und Verpflichtungen für Hochrisikosysteme (36 Monate).
Hintergrund
Das Gesetz über künstliche Intelligenz reagiert direkt auf die Vorschläge der Bürger der Konferenz zur Zukunft Europas (COFE), insbesondere auf Vorschlag 12(10) zur Verbesserung der Wettbewerbsfähigkeit der EU in strategischen Sektoren, Vorschlag 33(5) zu einer sicheren und vertrauenswürdigen Gesellschaft, einschließlich der Bekämpfung von Desinformation und der Sicherstellung, dass die Menschen letztendlich die Kontrolle haben, Vorschlag 35 zur Förderung digitaler Innovationen, (3) bei gleichzeitiger Gewährleistung der menschlichen Aufsicht und (8) der vertrauenswürdigen und verantwortungsvollen Nutzung von KI, der Festlegung von Schutzmaßnahmen und der Gewährleistung von Transparenz sowie Vorschlag 37 (3) zur Nutzung KI und digitale Tools zur Verbesserung des Zugangs der Bürger zu Informationen, einschließlich Menschen mit Behinderungen.
source link eu news