VonLisa Berinsschließen
Buchautorin Manuela Lenzen über die Neugier von Maschinen, die Erziehung von Robotern und die überragende menschliche Fähigkeit, sich überall zurechtzufinden
Frau Lenzen, Sie recherchieren schon länger zum Thema „Künstliche Intelligenz“, schon bevor es durch die Veröffentlichung von ChatGPT zum Hype wurde. Wie kamen Sie dazu?
Mein Hintergrund ist die Philosophie, und da habe ich mich vor allem mit der Philosophie des Geistes beschäftigt. Dabei geht es darum zu verstehen, was der menschliche Geist ist und wie er funktioniert. Von dort bin ich zur Kognitionsforschung gekommen, einem interdisziplinären Feld, in dem man mit unterschiedlichen Ansätzen erforscht, wie Kognition und Intelligenz funktionieren. Einer dieser Ansätze ist die KI-Forschung. Für mein Buch bin ich der Frage nachgegangen, wie die KI-Forschung versucht, Intelligenz künstlich nachzubauen – und ob das hilft, natürliche Intelligenz besser zu verstehen.
Hat die KI-Forschung das Rätsel der Intelligenz bald gelöst?
Noch lange nicht. Zu Beginn der KI-Forschung hat man Menschen befragt, wie sie zum Beispiel Rechenaufgaben und Probleme lösen, und hat dann versucht, das nachzuprogrammieren. Das war noch relativ leicht. Doch dann hat man gemerkt: Das reicht nicht. Wir können uns nicht einfach beim Denken zuschauen und sehen, was da genau vorgeht. Es gibt vieles, das in der menschlichen Kognition passiert, das wir nicht ausbuchstabieren können. Zum Beispiel, ein bekanntes Gesicht in der Menge erkennen. Eine Antwort darauf ist das maschinelle Lernen. Mittlerweile können künstliche Systeme uns in Einzelbereichen überflügeln und sind in speziellen Dingen besser als der Mensch, zum Beispiel im Schachspielen. Aber sie sind eben nur darin gut, sie sind extreme Spezialisten. Das System, das Schach spielt, kann dann nicht „Go“ spielen oder „Mensch ärgere dich nicht“.
Was sind die größten Probleme der KI-Forschung, wenn sie Intelligenz „bauen“ will?
Was die menschliche Intelligenz ausmacht, ist ihre Vielseitigkeit und Flexibilität. Wir können uns in ganz unterschiedlichen Kontexten zurechtfinden und das, was wir gelernt haben, in andere Kontexte übertragen. Der Mensch kann vielleicht nicht so gut „Go“ spielen oder Schach, aber er kann auch noch Pizza backen, zur Arbeit finden, Smalltalk halten. Das ist das, was man als Allgemeine Intelligenz bezeichnet: sich überall orientieren zu können. Künstliche neuronale Netzwerke werden heute zwar mit sehr großen Datenbeständen trainiert. Aber mit dieser Allgemeinen Intelligenz hapert es nach wie vor.
Ist es also wichtig, dass Maschinen wie Menschen lernen?
Das ist eine offene Frage in der Wissenschaft. Die eine Schule sagt: Es reicht, wenn es immer mehr Daten, immer stärkere Rechner und bessere Algorithmen gibt. Auf diesem Weg, meinen diese Forscherinnen und Forscher, werden wir Systeme bekommen, die gut genug sind für das, was wir von ihnen wollen. Die andere Fraktion sagt: Auf diese Weise bekommen wir die falschen Antworten nur immer schneller. Wenn wir Systeme haben wollen, die verstehen, was man von ihnen will und was sie selbst von sich geben und nicht nur statistisch menschliche Sprachmuster nachbilden, dann müsste man noch mal ganz anders ansetzen. Man müsste dann mit Systemen anfangen, die einen Körper haben. Das können auch Körper sein, die im Computer simuliert sind, es müssen keine Roboter sein, aber etwas, das Sensor-Inputs hat und das Erfahrungen machen kann.
Bisher kann die KI noch keine eigenen Erfahrungen mit unserer Welt machen?
ChatGPT und andere generative Systeme sind erst mal körperlos, man kann mit ihnen nur am Computer interagieren. Sie bekommen ihre Eingaben und geben Texte, Bilder, Musik oder Codes aus. Das Problem ist die Schnittstelle zur Realität, die nicht durch die Trainingsdaten, die die Systeme bekommen, vollständig erfasst werden kann. Das ist zum Beispiel beim autonomen Fahren ein Problem. Das Auto soll ja auch unerwartete Situationen erkennen, nicht nur die, von denen es genug Trainingsbilder gibt. Sobald künstliche Systeme sich in die Welt wagen, die nun mal bunt und komplex und durcheinander ist, gibt es einfach unendlich viel zu lernen. Nicht umsonst brauchen Menschen ihre ganze Kindheit, um sich orientieren zu können. Wenn zum Beispiel ein Haushalts-Roboter in einer Wohnung aufräumen soll, müsste er sich nicht nur zurechtfinden, seinen Körper steuern und seine Handlungen planen, er müsste auch verstehen, dass „aufräumen“ bedeutet, die Spielsachen wegzuräumen, aber nicht etwa, die Katze in den Schrank zu stecken.
Um zu „verstehen“, müsste eine KI eine kognitive Entwicklung durchmachen wie ein Kind?
Vielleicht müssten die Systeme anfangen, die Welt um sich herum zu erforschen, und tatsächlich einen Prozess durchlaufen, ähnlich der Kindheit. Das würde nicht jeder einzelne Roboter noch mal für sich machen müssen – wenn die Grundlage einmal da ist, könnte man sie auf andere Systeme übertragen. Es würde also vermutlich nicht bedeuten, dass man jeden Roboter jahrelang „erziehen“ müsste, das wäre wenig nützlich. Aber wenn wir noch mal das Beispiel des Haushalts-Roboters nehmen, müsste ein solches System mit Grundfähigkeiten geliefert werden und man würde es dann herumführen wie eine menschliche Putzkraft: Hier stehen die Putzmittel, dort bitte saubermachen, dort nicht … Aber auch das ist auf absehbare Zeit nur eine Vision.
Für das kindliche Lernen sind Emotionen, vor allem Neugier, wichtige Motoren. Wie will man sie bei einer KI erzeugen?
Diese Systeme haben kein Bewusstsein, sie haben keine Empfindungen und deshalb auch keine echte Neugier. Man kann Emotionen allerdings funktional nachbilden, ohne dass die Systeme etwas dabei empfinden. Ein System kann beispielsweise darauf programmiert werden, „Au“ zu sagen, wenn man es piekst. Aber da wird nur die Funktion nachgeahmt, nicht die Emotion, die dahintersteht; das System tut nur so, als hätte es Schmerzen. Um Neugier nachzubilden, bekommen die Systeme Belohnungssignale, wenn sie etwas Neues wahrnehmen. So bringt man sie dazu, sich selbst immer wieder neue Reize zu suchen. Sie werden belohnt, solange die Lernkurve ansteigt, flacht sie ab, fangen die Systeme an, sich im Raum zu bewegen – im virtuellen oder echten – und nach neuem Input zu suchen.
Bei der Verarbeitung von Informationen spielt bei Menschen der Schlaf eine wichtige, wenn auch noch nicht gänzlich erforschte Rolle. In Ihrem Buch liest man, dass auch damit experimentiert wird, KIs in einen Schlaf zu versetzen?
Es gibt tatsächlich erste Versuche bei Systemen, die in ihrem Lernfortschritt nicht mehr besser, zum Teil auch schlechter wurden, und die man dann in eine Art künstlichen Schlaf versetzt hat. In den Studien, die ich mir angesehen habe, leiteten die Forscherinnen und Forscher dafür ein Rauschen statt der Trainingsdaten durch das Netzwerk, um eine Art Tiefschlafphase zu simulieren. Tatsächlich haben diese Systeme ihre Leistungen wieder verbessern können.
Das Buch
Manuela Lenzen: Der elektronische Spiegel. Menschliches Denken und künstliche Intelligenz. C.H.Beck, 2023. 270 S., 20 Euro.
Wie ist das zu erklären?
Anscheinend haben sie einige überflüssige Verbindungen gekappt und andere Verbindungen, auf die es wirklich ankam, herausgearbeitet. In Teilen der KI-Forschung hat man einen genauen Blick auf die Hirnforschung und probiert neue Erkenntnisse gerne an künstlichen Systemen aus, um zu sehen, ob man sie so besser machen kann.
Bleiben wir bei der „Erziehung“ von Computersystemen. Wie bringt man einer KI, die in unserer Welt Entscheidungen trifft, Vernunft und Moral bei?
Das ist sehr schwierig. Erst hat man in Anlehnung an Isaac Asimovs „Robotergesetze“ versucht, der Maschine bestimmte Regeln beizubringen, was teilweise zu absurden Ergebnissen führte.
Ein Asimov-Gesetz lautet: „Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.“
Genau. Nur muss der Roboter das richtig verstehen. Und nicht etwa beschließen, dass er besser alle Menschen vernichtet, damit sie sich nicht mehr gegenseitig verletzen können. Oder darauf schließen, dass man Menschen am besten vor Krebs schützt, indem man sie alle tötet. Asimov hat ja selbst viele solche Konstellationen erdacht. Das Problem ist: Der Maschine fehlt der sogenannte gesunde Menschenverstand, der uns erkennen lässt, dass solche Ideen absurd sind. Das ist die alte König-Midas-Geschichte. Er wünscht sich, dass alles, was er anfasst, zu Gold werden soll. Spätestens, als er etwas essen und trinken will, merkt er, dass das eine ziemlich dumme Idee war. Ein künstliches System nimmt alles erst mal wörtlich. Entweder man muss die Aufforderung also haargenau ausformulieren, und dann passt sie nur auf kleine Ausschnitte der Welt. Oder man fasst sie allgemein und in einer konkreten Situation hilft einem das nicht.
Regeln reichen also nicht. Welche Ideen gibt es noch?
Mittlerweile füttert man die Systeme mit Texten oder etwa menschlichen Diskussionen zu verschiedenen Themen. Aus menschlich generierten Geschichten sollen sie lernen, was moralisch ist und was nicht. Einige Fortschritte konnten schon erzielt werden, die Systeme können jetzt zum Beispiel durchaus unterscheiden, dass man Zeit totschlagen darf, Menschen aber nicht.
Allerdings kommt es immer wieder zu Fehlentscheidungen, auch aufgrund von bestimmten Bias. Gibt es da nicht ein grundsätzliches Problem mit der Datenbasis, mit der die Maschine trainiert wird?
Wenn in den Trainingsdaten Einseitigkeiten oder Fehler sind, werden diese übernommen. Und es ist tatsächlich so, dass viele Datensätze nicht sehr divers sind – gute, vielseitige und aktuelle Datensätze zu generieren, ist für die Unternehmen arbeitsintensiv und teuer. Die Systeme verstehen auch nicht, dass wir die zukünftige Welt anders haben möchten als die vergangene. Sie stricken die Strukturen der Vergangenheit in die Zukunft weiter. Ein Problem mit den großen Sprachmodellen ist zudem, dass ihre Antworten zwar plausibel klingen, aber nicht unbedingt wahr sind. Man arbeitet mit Hochdruck daran, das zu beheben. Das Problem ist allerdings, dass sich derzeit ein Durcheinander von halbwahren, wahren und erfundenen Aussagen verbreitet, die wiederum als Trainingsdaten für Algorithmen dienen, übernommen und weiterverwertet werden.
Und die KI wird immer dümmer …
Es gibt eine Studie, die behauptet, dass ChatGPT schlechter wird. Aber das ist umstritten, andere sagen, das System verändere sich, oder es liege an den Aufgaben. Es ist aber zu befürchten, dass die Systeme immer stärker mit Daten trainiert werden, die selbst von künstlichen Systemen generiert wurden. Damit würden sie sich immer weiter von der wirklichen Welt entfernen. Auch die schlechtbezahlten Crowdworker, die Trainingsdaten beschaffen, bedienen sich wiederum der Algorithmen, um Texte zu generieren. Da beißt sich die Katze in den Schwanz.
Kann KI jemals das Niveau einer menschlichen Intelligenz erreichen?
Die Systeme werden sicher noch besser werden, man wird unterschiedliche Ansätze kombinieren. Es kann sein, dass sie dann Ergebnisse generieren, mit denen wir größtenteils zufrieden sind, auch wenn sie auf einem ganz anderen Weg entstehen, als ihn eine menschliche Intelligenz gehen würde. Ob es einmal Systeme geben wird, die die Welt so verstehen wie wir, ist offen.
Was haben Sie bei Ihren Recherchen über die menschliche Intelligenz gelernt?
Die Vorstellung, dass Intelligenz vor allem im Kopf passiert, ist falsch. Intelligenz funktioniert in einer konkreten Umgebung, in der unser Körper uns mit Sinneswahrnehmungen versorgt. Wir sehen zum Beispiel nicht wie eine Kamera alles gleich gut, sondern unsere Augen filtern vor, was unser Gehirn verarbeiten kann. Ein Forscher hat mir mal gesagt, das Auge sei eine schreckliche Kamera, mit der kein Ingenieur arbeiten würde. Aber wir können uns in der Welt orientieren, gerade weil wir nicht alles sehen, sondern das Wichtige. Das ist ein Problem der künstlichen Systeme: Wenn alles gleich wichtig ist, dann ist nichts wichtig. Wenn jeder Pixel gleich bedeutsam ist, dann sehe ich keine Gegenstände. Außerdem brauchen wir als intelligente Wesen soziale Kontakte. Wir brauchen den Körper, die Umwelt und die Mitmenschen. Eine reine Intelligenz gibt es nicht – und das wird im Vergleich mit künstlichen Systemen sehr offensichtlich.

