- VonDaniel Roßbachschließen
In der EU wird über ein Gesetz zur Regulierung von Artificial Intelligence gestritten. Ein Parlamentsentwurf will mögliche Anwendungen zur Überwachung einschränken, aber es stehen noch Verhandlungen aus.
Das EU-Parlament berät in dieser Woche über ein Gesetz zur Regulierung von Künstlicher-Intelligenz-Technologie (KI). Der zuständige Fachausschuss hat dem Plenum den Entwurf eines „AI Act“ zugestellt. Das Gesetz soll Auflagen und Einschränkungen für den Einsatz von KI definieren. Zwischen den Parlamentsfraktionen und zwischen Parlament, EU-Mitgliedsstaaten und Kommission ist jedoch umstritten, wie weit diese Eingriffe gehen sollen.
Aus Deutschland ist der CDU-Politiker Axel Voss im Parlamentskomitee vertreten, das sich mit dem „AI Act“ befasst. Voss sagt der Frankfurter Rundschau, dass er mit seiner eigenen Position zu dem Gesetz näher an der des Rates der Regierungen der EU-Mitgliedsstaaten liegt als an der des Parlamentsentwurfes. Ein wesentlicher Unterschied besteht darin, dass das Parlament umfassende Verbote für KI-Anwendungen vorsieht, die Grundrechte gefährden könnten. Das betrifft vor allem die Identifizierung von Personen aus der Ferne (remote biometric identification, RBI), das automatisierte Erkennen vom Ausdruck von Emotionen und den Einsatz sogenannter voraussagender Polizeitechniken (predictive policing, PP).
Der Europaabgeordnete Voss kann die Bedenken über den KI-Einsatz zur Einschränkung von Freiheitsrechten nicht nachvollziehen: „Warum sollten der Staat oder die Polizei nicht Daten über geschehene Verbrechen wie Einbrüche sammeln und auswerten dürfen? Das beeinträchtigt niemanden. Mir fehlt da oft der Mut, neue Technologien zuzulassen.“ Er sei insgesamt „eher nicht für Verbote, sondern für Auflagen für die Nutzung von KI-Technologie“ erklärt er der FR, denn „Argumente für Verbote sind oft angstgetrieben.“ Das gelte auch bei RBI und PP.
AI Act könnte Verbote von Identifikation und Predictive Policing enthalten
Doch gerade diese Anwendungen von Künstlicher Intelligenz machen Freiheitsrechte-Aktivist:innen Sorgen. Denn wenn diese Anwendungen etwa staatlichen Behörden nicht grundsätzlich vorenthalten würden, entstehe die Notwendigkeit, für ihren möglichen Einsatz großflächig Daten zu sammeln und zu speichern. Aus diesem Grund sei auch die in den Verhandlungen über den „AI Act“ debattierte Unterscheidung über die Anwendung von Gesichtsidentifizierung in Echtzeit oder im Nachhinein „Unsinn“, meint Daniel Leufer.
Leufer ist Politikanalyst bei „Access Now“, einer Nichtregierungsorganisation mit dem Ziel, „die digitalen Rechte von gefährdeten Menschen und Gemeinschaften weltweit zu verteidigen und auszubauen“. Dort befasst er sich insbesondere mit EU-Gesetzgebung und beobachtet die Entwicklung von KI-Technologie und möglicher Regulierung schon seit 2017. Er sagt: „Alles andere als ein komplettes Verbot dieser Techniken bedeutet, dass die Daten zunächst gesammelt werden müssen und dann auch ausgewertet werden können.“
CDU-Mann Voss sagt, dieser Einwand sei „ein Scheinargument: Unser Staat hat nicht im Sinn, irgendjemanden auszuspionieren.“ Die Gefahr, dass etwa innerhalb der Polizei solche Systeme missbräuchlich oder rechtswidrig angewendet und genutzt werden könnten, sieht Voss nicht.
Größenwahn
„Künstliche Intelligenz“ ist ein Schlagwort; mitnichten ist sie eine technische Realität. Zumindest heute ist das so. Der Begriff macht offenbar eine Entwicklung durch, die nicht unähnlich der „virtuellen Realität“ ist.
Das Konzept der „AI“ ist ein Topos, der seinen modernen Anfang bei Mary Shelleys „Frankenstein“-Roman (unzweideutiger Untertitel „Der moderne Prometheus“) nimmt. Über Paul Wegeners „Golem“-Filme in den 1920ern und die „Cyberpunk“-Science-Fiction in den 80er Jahren etabliert sich die Idee, dass mit einem Gotteskomplex beladene Menschen intelligente Wesen erschaffen können. Wohlgemerkt: Alle Werke warnen nur vor solchem Größenwahn.
Faktisch ist das, was heute „AI“ oder „KI“ abgekürzt wird, nicht intelligent. Es wirkt nur so. Alle „AI“-Technik ist nur so intelligent, wie die, die sie programmiert haben. rut
Ohnehin gibt es auch im Parlamentsentwurf Ausnahmen für die Verbote und Auflagen für „Hochrisiko-KI-Technologien“, wie das Gesetz sie definiert. So sind militärische Anwendungen komplett vom Geltungsbereich des Gesetzes ausgeschlossen. An den EU-Außengrenzen können weiter KI-Systeme eingesetzt werden. Und aus Sicht von Fachleuten besteht die Gefahr, dass das Gesetz mit zu engen Definitionen von AI-Anwendungen Schlupflöcher lässt. Das gelte besonders für Bereiche, in denen es den Anbietern überlassen bleiben könnte anzugeben, ob ein System die Kriterien erfülle, sagt Leufer. Schon jetzt sei in manchen Fällen „abenteuerlich“, wie die Industrie ihre Angebote beschreibe und deren Fähigkeiten kleinrede um striktere Regeln dafür zu umgehen.
Eine weitere mögliche Lücke in der Regulierung sieht Nikolett Aszódi, die sich für die Organisation „Algorithm Watch“ mit dem Gesetz befasst, darin, dass Firmen sich um ein Aussetzen der Regulierung für ihre Angebote bewerben können. Entscheiden müssen darüber Aufsichtsbehörden auf EU- und Mitgliedsstaaten-Ebene, die mit dem „AI Act“ geschaffen werden sollen. Es sei jedoch unklar, ob diese Instanzen ausreichend ausgestattet und kompetent genug sein werden, um diese Entscheidungen adäquat und in den vorgegebenen Fristen zu treffen. Scheitern sie an letzterem, werden die Ausnahmen automatisch gewährt.
Dass sich führende Vertreter:innen der Industrie öffentlich für die Regulierung von KI aussprechen und teils sogar ein Moratorium für deren Entwicklung fordern, sieht Aszódi mit Blick auf ihre tatsächlichen Lobbying-Anstrengungen eher als Geste zur Öffentlichkeitsarbeit.
DSGVO setzt bereits auch AI Grenzen
Das Argument, staatliche Behörden müssten die Erlaubnis bekommen, KI einzusetzen um mit kriminellen Widersachern Schritt zu halten – das auch Voss vorbringt –, weist Leufer zurück: Das ergebe keinen Sinn, „weil Kriminelle und Sicherheitsbehörden nicht versuchten, das selbe zu tun“, sagt Leufer und verweist etwa auf die Identifikations-Software, für deren Anwendung es keine Entsprechungen und keinen Wettlauf zwischen Ermittlungsbehörden und ihren Zielen gebe.
Analyst Leufer weist aber auch darauf hin, dass die inhaltliche Bedeutung des „AI Act“ nicht überschätzt werden sollte. Die Datenschutz-Grundverordnung (DSGVO oder auf Englisch: GDPR) sei eigentlich das wichtigere Gesetz und enthalte viele Bestimmungen, die auch für den Einsatz von „Artificial Intelligence“ gelten. Das KI-Gesetz der EU könne das noch mal explizit klarstellen, lege die Latte von Regulierungsanforderungen selbst aber nicht besonders hoch und etabliere auch nur ein Minimum an notwendigen Schutzbestimmungen. Trotzdem und obwohl die öffentliche Diskussion und Aufgeregtheit über KI deutlich an Fahrt gewonnen hat, seit der Gesetzgebungsprozess der EU begann, könne der „AI Act“ immer noch zu einem hilfreichen Instrument zum Schutz digitaler Rechte geraten.
Ob das aber schlussendlich geschieht, hängt sehr davon ab, welche Form des Gesetzes letztlich verabschiedet wird. Schon wenn das Plenum des EU-Parlaments am 13. Juni darüber debattiert und am 14. Juni wie geplant abstimmt, könnte sich der Text an wichtigen Stellen ändern. Und danach stehen in jedem Fall kontroverse Verhandlungen im Trilog-Verfahren von Parlament, EU-Kommission und Ministerrat an. Die könnten unter erheblichen Zeitdruck geraten, wenn der „AI Act“ wie geplant bis zum Frühjahr 2024 endgültig beschlossen werden soll. Nikolett Aszódi warnt die EU-Institutionen jedoch davor, einen zu ambitionierten Zeitplan zu verfolgen. Von dem weiteren Prozess zu dem sehr umfassenden Gesetz wünscht sie sich: „Qualität vor Geschwindigkeit.“