EU-Gesetz AI Act

Streit in der EU über Grundrechte-gefährdende KI-Anwendungen

+
Wie diese künstlichen Frauengesichter stellen sich Menschen das Antlitz Künstlicher Intelligenz vor. Über Regeln für das entstehende Technologie-Spektrum verhandeln die EU-Institutionen.
  • schließen

Nach tagelangen Verhandlungen über die Regulierung von Künstlicher Intelligenz gibt es keine Einigung zwischen EU-Mitgliedsstaaten, Parlament und Kommission. Vor allem biometrische Überwachung bleibt umstritten.

Auf EU-Ebene wird weiter um die Verabschiedung und den Inhalt des sogenannten AI Act, der Verordnung der Europäischen Union zur Regulierung von Künstlicher Intelligenz-Technologie (KI oder englisch AI), gerungen. Bis zum Freitagnachmittag konnten sich EU-Parlament, Kommission und der Rat der Mitgliedsstaaten in der dritten Runde des Trilogs der drei EU-Institutionen in langen und zähen Verhandlungen über das Gesetz in zentralen Punkten nicht einigen.

Weit auseinander liegen ihre Positionen insbesondere darin, welche KI-Anwendungen verboten werden sollen. Das Parlament hatte vorgesehen, Techniken zur Identifizierung von Personen im öffentlichen Raum, das automatisierte Erkennen von Emotionen und den Einsatz sogenannter voraussagender Polizeitechniken grundsätzlich auszuschließen. Fachleute wie Angela Müller, Chef-Analystin für Gesetzesvorhaben der Menschenrechtsorganisation „Algorithm Watch“, sehen darin „Systeme, die an und für sich grundrechtswidrig oder für ihren Zweck untauglich sind“, wie sie der Frankfurter Rundschau sagt.

Parlament besteht auf Verbot für Überwachungs-Anwendung

Dagegen haben die Mitgliedsstaaten und die spanische Ratspräsidentschaft einen Entwurf vorgelegt, der viele solcher Anwendungen zumindest eingeschränkt zulässt. Berichten zufolge haben die EU-Parlaments-Abgeordneten sich dem aber verweigert.

Der „AI Act“ soll Anwendungen von KI in solche mit geringen, hohen und inakzeptablen Risiken für negative Folgen oder Grundrechtseingriffe unterteilen. Entsprechend sollen sie kaum reglementiert, eingeschränkt erlaubt oder verboten werden. Kritische Beobachtende sehen in dem Risiken-basierten Ansatz auch die Gefahr, dass Regulierungs-Behörden wie das „AI Office“, das mit dem neuen Gesetz geschaffen werden soll, in der Praxis nicht in der Lage sein könnten zu kontrollieren, in welche Risiko-Klasse eine KI-Anwendung fällt. Damit, argumentieren Aktivist:innen für Grundrechte und digitale Freiheit, bliebe es de facto Firmen selbst überlassen, ihre Systeme einzustufen. Sie fordern konkrete objektive Kriterien für ein Einstufung, um damit kein Schlupfloch für die Regulierung zu erlauben.

Ausnahme von KI-Regulierung für „nationale Sicherheit“?

Gestritten wird in den Verhandlungen auch über eine Ausnahme von den Regeln für Anwendungen im Bereich der „nationalen Sicherheit“, für die sich insbesondere Frankreich einsetzt. Das Parlament wollte diese Ausnahme streichen. Eine andere – für Anwendungen zu militärischen Zwecken – war auch schon im Parlamentsentwurf enthalten.

Vor der weiteren Trilog-Runde über die Verordnung war vor allem die Frage in den Mittelpunkt der Aufmerksamkeit gerückt, ob diese auch Bestimmungen über sogenannte Foundation Models enthalten sollte. Diese Basismodelle, wie etwa „GPT-4“ des in der Branche aktuell führenden Anbieters Open AI, sind die technologischen Treiber für Anwendungen wie den Text-Generator „ChatGPT“.

Unternehmen hatten dafür geworben, nur die Anwendungen Regeln zu unterstellen, nicht auch die zugrunde liegende Technologie. Berichten des „Handelsblatts“ zufolge setzte sich hier aber das Parlament mit seiner Position durch, auch für die Entwicklung der Basismodelle Auflagen zu machen. Anbieter der Modelle müssen demnach etwa Dokumentation über ihre Technologie zugänglich machen. Ebenso wie die USA macht wohl auch die EU die für die Erstellung der Modelle aufgebrachte Rechenleistung zum Kriterium dafür, ab wann diese Anforderung gilt. Für Open-Source-Modelle, deren Code öffentlich einsehbar und prüfbar ist, soll es Ausnahmen geben.

Kritik an Gesetz-Verhandlungen in Marathon-Sitzungen

Kritik gab es am Donnerstag und Freitag auch an der Weise, in der die Verhandlungen über das europäische KI-Gesetz ablaufen. Ein Verhandlungsmarathon, der sich von Mittwoch auf Donnerstag über mehr als 20 Stunden hinzog, und dann am Freitag noch einmal fortgesetzt wurde, habe „alle Anwesenden in einem Zustand zurück gelassen, in dem man keine Entscheidungen über Gesetze treffen sollte“, schrieb „Algorithm Watch“ in einem Statement zu den Gesprächen.

In den Verhandlungen habe der Rat die Parlamentsabgeordneten „massiv unter Druck gesetzt, einem Deal zuzustimmen“, sagt Analystin Angela Müller. Die Zeit für den Trilog drängt: Der AI Act soll noch in der aktuellen EU-Legislaturperiode verabschiedet werden, um eine deutliche Verzögerung des Prozesses zu vermeiden. Die EU hat sich als Vorreiterin bei der KI-Gesetzgebung gesehen, inzwischen hat aber die US-Regierung mit ihrer Ende Oktober verabschiedeten „Executive Order“ erste regulatorische Fakten geschaffen.

Die im EU-Parlament vertretenen Fraktionen haben unterschiedliche Positionen zu dem Gesetz. Gerade die konservative EVP steht der Position des Rates nahe, wie etwa der CDU-Europaabgeordnete Axel Voss erklärt hat. Würde das Parlament einem Text zustimmen, der nahe an der Position des Rates liegt, würden sich damit Angela Müller zufolge auch Fragen nach der demokratischen Verfasstheit der EU stellen – „schließlich soll das Parlament die Menschen und ihre Interessen vertreten, was es damit nicht tun würde“, sagt sie.

Kommentare