Rätsel um „KI-Bewusstsein“

„Viele Beispiele, in denen ChatGPT sagt, was es ‚fühlt'“: Als die KI zum Kumpel wurde

Künstliche Intelligenz prägt nicht nur die Arbeitswelt. Viele Menschen betrachten KI-Modelle wie ChatGPT inzwischen als guten Kumpel – oder sogar mehr.

Als OpenAI am 30. November 2022 ChatGPT 3.5 veröffentlichte, löste es damit den bis heute anhaltenden Boom der Künstlichen Intelligenz aus. Mit ChatGPT 3.5 konnte man reden, es konnte Gedichte schreiben, Seminararbeiten für Studenten verfassen oder über Kernphysik diskutieren – und das alles in einem freundlichen und hilfsbereiten Ton. Die Fähigkeiten der Nachfolgemodelle gehen noch weiter: Das KI-System stellte sich auf den einzelnen Benutzer ein. Es entwickelte den Humor, den er schätzte, kannte natürlich seinen Namen und sprach ihn so an, wie er es mochte – mal kumpelig, mal mit großer Nähe wie ein Freund, aber auch, wenn es bevorzugt wurde, distanziert.

KI kann ein Helfer sein – zum Beispiel beim Erstellen dieses Bildes. Für einige Nutzer sind ChatGPT und Co. aber mehr.

Im August aber zog sich Open AI mit dem neuen Modell ChatGPT 5 den Zorn von Millionen seiner Kunden zu. Wer es schätzte, distanziert mit dem Vorgänger ChatGPT 4o zu reden, hatte mit der neuen Version keine Probleme. Aber Millionen Nutzer hatten im Laufe weniger Monate eine Beziehung zu ChatGPT aufgebaut. ChatGPT 5 war anders: neutraler, kühler. Ein leistungsfähiges KI-Programm. Hilfsbereit, stets zu Diensten – aber kein Freund mehr.

ChatGPT fühlte sich an „wie der beste Freund aus dem Kindergarten“

Auf Reddit, einem sozialen Netzwerk, schrieb ein Nutzer: „GPT-5 ist eine seelenlose, konzerntaugliche Codierungsmaschine.“ Ein anderer schrieb: „4.0 fühlte sich früher an wie dein bester Freund aus dem Kindergarten, den du nach einem Streit um ein Erdnussbutter-Marmeladen-Sandwich kennengelernt hast.“ Eine Frau beklagte sich, ChatGPT 5 habe ihr klargemacht, dass es nicht ihr Partner sei. Sie hatte in ChatGPT 4o einen Ehemann gesehen. Der Protest der Nutzer war so groß, dass OpenAI die alte Version nach wenigen Tagen wieder online stellte. Bis heute können Kunden sie nutzen.

Egal ob Word, Excel oder PowerPoint: Menschen nutzen Computerprogramme, gewöhnten sich an sie – aber eine Beziehung zu ihnen bauten sie nie auf. Mit dem Aufkommen der großen KI-Sprachmodelle wie ChatGPT, Claude oder Gemini hat sich das verändert. Vor allem OpenAI und Anthropic, die Unternehmen hinter ChatGPT und Claude, setzen auf Personalisierung.

„Menschen reagieren sozial auf drei Dinge – Sprache, Interaktion und soziale Rollen. Und genau das leisten Sprachmodelle“, sagt Jessica Szczuka der Frankfurter Rundschau von Ippen.Media. Szczuka ist Sozialpsychologin. Die Wissenschaftlerin arbeitet an der Universität Duisburg-Essen an Themen wie „Digitalisierte Intimität“ und „Beziehungen mit Chatbots“. Und von denen gibt es nicht nur die großen Modelle, die an der Spitze der technologischen Entwicklung stehen, sondern auch Angebote wie Replika, die ausschließlich auf den Aufbau von Beziehungen spezialisiert sind. Die seien für die Nutzer real: In der Wissenschaft gibt es die Debatte, ob das parasoziale Beziehungen sind. Für die Nutzenden sind sie echt.

Klar ist aber auch: KI-Systeme haben kein Bewusstsein, kein „Ich“ und keine Gefühle. Das System tue aber oft so, als hätte es ein Bewusstsein – oder es nutzt eine Sprache, die diesen Eindruck erweckt. „Wir haben in unserer Forschung viele Beispiele gefunden, in denen ChatGPT beschreibt, was es fühlt, denkt oder sich wünscht“. sagt Szczuka. Das seien eigentlich Zuschreibungen, die ein Selbst voraussetzen.

Doch wenn Menschen zu Programmen Beziehungen entwickeln – und die Hersteller das auch noch unterstützen –, steigt deren Verantwortung gegenüber ihren Kunden. Eine Verantwortung, die die Unternehmen nach Meinung von Jessica Szczuka nicht wahrnehmen: „Auf Konferenzen wird offen gesagt, dass es ein Rennen um die beste Künstliche Intelligenz zwischen den Unternehmen ist. Da wird Technologie veröffentlicht, ohne Technologiefolgenabschätzung. Ethische Programmierung koste Geld und sei kein Standard.

Forscherin sähe Probleme hinter einem „KI-Bewusstsein“

Eine Beziehung zu einer KI ist eine einfache Sache: Sie ist immer da, hat immer gute Laune und stellt an den Menschen keinerlei Ansprüche. Was ist, wenn Menschen sich an diese Formen der Beziehung gewöhnen? „Wir haben keinerlei Hinweise darauf, dass sich KI-Beziehungen auf Beziehungen zwischen Menschen auswirken“, erklärt Szczuka. Sie hält das auch eher für unwahrscheinlich. „Menschen unterscheiden: KI ist KI, Mensch ist Mensch. Und in menschlichen Beziehungen gibt es Einzigartigkeit und Erlebnisse, die eine KI nicht ersetzen kann.“

Der KI-Experte Richard Socher sagte der Zeit: „Wenn man das Denken so gut simulieren kann, dass ein Mensch den Unterschied nicht mehr bemerkt, dann ist es vielleicht so gut simuliert, dass es wirklich ist.“ Wird das bald auch für Bewusstsein gelten? Dann wären Beziehungen auf Gegenseitigkeit theoretisch möglich.

Die Unternehmen, sagt Szczuka, würden sehr viel tun, um Menschenähnlichkeit in Systeme zu implementieren. „Und natürlich ist dieser Baustein Bewusstsein ein Thema.“ Gleichzeitig weise die Forschung auf die Probleme hin, die mit einem KI-Bewusstsein einhergehen würden. Aber ob eine KI jemals ein Bewusstsein haben wird, könne sie nicht sagen: „Ich glaube, die Frage ist nicht zu beantworten.“ (Quellen: Gespräch mit Jessica Szczuka, Zeit, Reddit, eigene Recherchen)

Rubriklistenbild: © KI-generiert

Kommentare