Künstliche Intelligenz

Roboter-Ethik – Erbitte Mitgefühl!

+
Bisher sind Menschen noch die mit Abstand überzeugendsten Androiden, hier die schwedische Schauspielerin Alicia Vikander in Alex Garlands „Ex Machina“ (2015).
  • schließen

Wenn die Forschung zur Künstlichen Intelligenz weiter so rasant voranschreitet, stellen sich wichtige ethische Fragen: Wann wird aus der Maschine ein Mensch und welche Rechte sollte sie haben?

Neulich wachten wir alle erschrocken auf und fragten uns, wie viele Regeln wir zur Steuerung immer schlauerer, digitaler Techniken brauchen. Ganz anders in dem Film „Her“ (2013), darin wacht Theodore Twombly (Joaquin Phoenix) aus einer tiefen Einsamkeit auf und fragt sich, wie er ohne die allgegenwärtige Stimme Samanthas, einer Künstlichen Intelligenz, überhaupt noch weiterleben soll. Denn was sich zwischen den beiden entwickelt, ist eine alle Grenzen überwindende Liebe – und damit auch jene, die zwischen Mensch und Roboter verläuft.

Obwohl Spike Jonzes Werk ganz der digitalen Gesellschaft entspringt, hat die Vorstellung von artifiziellen Personen und ihrer Nähe zu uns eine lange Tradition: Nachdem etwa Aristoteles als einer der ersten über Apparate nachdachte, die Sklaven ersetzen könnten, finden sich Androiden auch in der Literatur oft als hörige Begleiter wieder, darunter am prominentesten in E.T.A. Hoffmanns „Der Sandmann“, in dem der ‚weibliche‘ Automat Olimpia als willfähriges Objekt des Begehrens dient. An anderer Stelle findet sich hingegen eher Schrecken angesichts der Unkontrollierbarkeit der humanen Schöpferkraft. Man denke nur an die Hybrisnarrationen wie Goethes „Zauberlehrling“ oder Mary Shelleys „Frankenstein“.

Die Realität in der Spätmoderne steht indessen unter völlig anderen Vorzeichen. Heute sind elektronische Gerät Teil unserer selbst geworden. Wo wären wir schließlich ohne all die smarten Prothesen an und in unserem Körper? Ohne die Herzschrittmacher? Die Erkenntnis, dass wir es inzwischen mit einem unhintergehbaren Zusammenspiel aus technologischen und humanen Daseinsformen zu tun haben, lässt die Feminismustheoretikerin (und meist zitierte Frau der Welt) Donna Haraway gar eine neue Epoche ausrufen: „Im späten 20. Jahrhundert, in unserer Zeit, einer mythischen Zeit, haben wir uns alle in Chimären, theoretisierte und fabrizierte Hybride aus Maschine und Organismus verwandelt, kurz, wir sind Cyborgs. Cyborgs sind unsere Ontologie.“ („Ein Manifest für Cyborgs“, 1985).

Nur welche ethischen Überlegungen resultieren daraus? Über die Pflichten und Beschränkungen der intelligenten Maschinen haben wir zuletzt ausführlich debattiert. Wenig dagegen über deren denkbaren Rechte. Brauchen wir also eine Roboterethik? Um darauf eine Antwort zu geben, bedienen sich die meisten Philosophen unserer Tage einer Stützdisziplin, nämlich der Tierethik. Seit Jahrhunderten sinnieren Intellektuelle über die Legitimität einer Besserstellung von animalen Wesen.

Nachdem bis in die Moderne hinein ein anthropozentrisches Weltbild vorherrscht spricht, macht sich im 20. Jahrhundert eine markante Trendwende bemerkbar, beginnend bei Albert Schweitzer bis hin zu Theoretikern wie Tom Regan oder Bernd Ladwig („Philosophie der Tierrechte“, 2020). Etwas vereinfacht, argumentieren die meisten heute, dass kaum mehr Gründe vorlägen, um Schweine, Kühe & Co. herabzusetzen. Viele verfügten über soziale Beziehungen, zeigten Sorgen für andere und würden als verletzliche Wesen mit uns ein Interesse am Weiterleben teilen, daher müssten sie auch als moralische Subjekte gelten.

Bezogen auf immer souveräner werdende Maschinen wäre also zu prüfen, ob diese Eigenschaften auch bei ihnen zu beobachten oder zu erwarten sind. Kern der Auseinandersetzung bildet dabei das Bewusstsein. Was setzt es voraus? Kann es schon für ein System angenommen werden, das auf Basis bestimmter Informationen eigenständige Verhaltensweisen annimmt? Hilfreich könnte eine Ableitung der Frage sein, die sich der Utilitarist Jeremy Bentham im 19. Jahrhundert gestellt hat: Aus „Können Tiere leiden?“ müsste „Können auch Roboter leiden?“ folgen. Derzeit darf man das noch verneinen.

Maschinen können aktuell Gefühle wie Trauer und Schmerz nur anhand ihrer Programmierung imitieren. Analog verhält es sich bei der Diskussion um Verantwortung. Ein Beispiel: Würden wir jetzt schon ein automatisiertes Fahren im Straßenverkehr zulassen, so könnte die Software ethische Urteile im Falle eines zu verhindernden Unfalls nur mithilfe der ihr eingespeisten Entscheidungsgrundlagen fällen. Brisant würde es erst, wenn sie selbst dazu in der Lage wäre, gänzlich eigenständig Wertsysteme zu begründen. Doch auch so weit scheint der Fortschritt noch nicht gediehen, weswegen einer der führenden Bioethiker, Dieter Birnbacher, eindeutig festhält: „Moralische Verantwortung und moralische Verantwortlichkeit lassen sich nur Wesen zuschreiben, die Subjekte von Moral sind.“

Wie lange man noch diese Klarheit behaupten kann, ist ungewiss. Schon jetzt fordern immer mehr Intellektuelle ein Moratorium für die Künstliche Intelligenz, da eine ethische Folgenabschätzung kaum noch mit der rasanten technischen Evolution mitzuhalten vermag. Karl Marx’ düstere Vision, wir würden uns auf eine Welt zubewegen, in der die Fabriken aus Menschen Robotern machen, muss man indessen umkehren: Wir könnten, zugespitzt, es bald mit Fabriken zu tun haben, die aus Robotern Menschen schaffen.

Alles Zukunftsmusik? Vielleicht. Welchen Nutzen wir aus der anhaltenden Diskussion um Trans- und Posthumanität trotz allen Unbehagens schon jetzt ziehen können, führt uns Hollywood vermehrt vor Augen. Die Science Fiction der letzten Dekaden beobachtend, treffen wir nämlich in Filmen wie „Terminator“ oder „Blade Runner“ auf Cyborgs, in denen grundsätzlich unser Umgang mit Andersartigkeit verhandelt wird. Sie machen uns auf die Künstlichkeit unserer verschiedenen binären Ordnungen aufmerksam, insbesondere auf jene, die Ungleichverhältnisse zwischen Geschlechtern, Ethnien und ja auch Spezies verfestigen. Zumindest die fiktiven Menschmaschinen dienen uns somit als Reflexionsfigur für uns selbst. Inmitten einer identitätspolitisch aufgeladenen Auseinandersetzung zeigen sie, dass wir nie einfach nur wir in einem monolithischen Sinne waren. Ab wann wurden wir anders? Ab wann wurden wir uns in einem positiven und zum Nachdenken anregenden Sinne fremd?

Sicher nicht erst mit dem Beginn der Moderne. Der Cyborg hat viele Vorläufer. Niemand anderes als Stanley Kubrick hat die ihm vorausgehende, jahrtausendealte Entwicklung so pointiert in ein einziges Bild gefasst. So wird in einer der ersten Einstellungen seines Films „2001: Odyssee im Weltraum“ (1968) aus einem Knochen, den ein Menschenaffe als erstes Werkzeug in die Luft wird, durch Montage ein Raumschiff. Auch wenn der Film an sich einen apokalyptischen Verlauf nimmt, ist dieses Gefährt das Zeichen für eine neue Denkweise, mithin eine neue plurale Epoche. In ihr gilt es nicht mehr so sehr, Trennungen zu verteidigen. In ihr sind wir alle animalisch wie human, weiblich wie männlich, verkabelt wie nicht-verkabelt.

Dieses, wie Haraway es nennt, „Gemeinsam-Werden“, sollte uns bei aller nötigen Debatte zur Wahrung und Abgrenzung des Menschen auch dazu anhalten, eine Kultur der Empathie fortzuentwickeln. Möglicherweise versteht sich diese Einsicht schon heute als die große Lehre einer Roboterethik, die schon in Kürze Fahrt aufnehmen dürfte.

Kommentare