„Fan-Armee“ im Netz: AfD nutzt KI, um Reichweite zu maximieren
VonTadhg Nagel
schließen
KI-Bilder sollen im Wahlkampf Emotionen wecken. Die AfD nutzt Fake-Profile und generierte Clips. Studien zeigen, wie täuschend echt sie wirken.
Berlin – Im Vorfeld der Bundestagswahl am 23. Februar setzt vor allem eine Partei auf die Nutzung von KI für den Wahlkampf: die AfD. Gefälschte Bilder und Videos, aber auch generierte Nutzerprofile helfen bei der Stimmungsmache im Netz. Für die Bürgerinnen und Bürger ist oft nicht klar ersichtlich, dass es sich um mit künstlicher Intelligenz erstellte Inhalte handelt. Viele wünschen sich eine Kennzeichnungspflicht.
Spitzenpolitiker der AfD teilen vor der Wahl reihenweise KI-generierte Inhalte. Einem Bericht des US-Portals Politico zufolge, lassen sich diese grob in zwei Kategorien unterteilen. Einerseits helfen sie der Partei von Kanzlerkandidatin Alice Weidel dabei, ihr Versprechen von einer idyllischen und nostalgische Zukunft zu verbildlichen: lächelnde, hellhaarige Kleinkinder, junge blonde Frauen und kohleverschmierte Kumpel in einer sorgenfreien Welt. Andererseits werden sie genutzt, um eine Dystopie zu verbildlichen, die vermeintlich eintritt, wenn die AfD die Wahl nicht gewinnen sollte: ältere Menschen, die Plastikflaschen sammeln, reihenweise Frauen in Burkas auf der Straße und Gruppen von Männern mit dunkler Hautfarbe, die den Zuschauer direkt anstarren.
AfD setzt auf KI-Bilder im Wahlkampf: Gefälschte Inhalte sollen Emotionen gezielt verstärken
„Es geht darum zu zeigen, wie das Leben mit der AfD in Deutschland aussehen könnte und wie es im Vergleich dazu wäre, wenn wir nicht an die Macht kämen“, so Norbert Kleinwächter, AfD-Abgeordneter und einer der aktivsten Verfasser von KI-generierten Inhalten der Partei, gegenüber dem Portal. „Wir beschreiben nicht nur in Worten, was wir wollen. Wir veranschaulichen es und präsentieren es – und verstärken es natürlich manchmal“, gibt der Politiker dort offen zu.
Das hat System. Für die AfD dienen „KI-generierte Clips als Nostalgiemaschinen und emotionale Klischeeverstärker mit Bildern, die sich auf historische Ästhetik aus dem 19. und 20. Jahrhundert beziehen“, wird der Politik- und Kommunikationswissenschaftler Marcus Bösch in dem Bericht zitiert.
Kennen Sie alle? Diese 41 Parteien wurden formal zur Bundestagswahl 2025 zugelassen
„Fan-Armee“ und Algorithmen: Wie KI-Propaganda die Reichweite der AfD vergrößert
Ihm zufolge ist der Einsatz von KI durch Parteifunktionäre nur ein kleiner Teil der Bemühungen, generative KI für die Sache der AfD zu nutzen. Es gebe „eine ganze Fan-Armee, die sich an einem weitreichenden und effektiven Versuch der partizipativen Propaganda beteiligt“. Von Nutzern erstellte KI-Inhalte und KI-Influencer, die die AfD unterstützen, veröffentlichen Inhalte auf TikTok, Instagram, Facebook und X – sie alle seien Teil davon. Dabei nutze man die Algorithmen geschickt aus. „Nachrichten werden durch Fan-Bearbeitungen verstärkt und emotional aufgeladen, wobei Unterstützer die Kommentarbereiche mit Pro-AfD-Hashtags wie dem blauen Herz-Emoji überfluten, um den Algorithmus weiter auszulösen“, so Böschs Einschätzung.
Längst beschränkt sich der Einsatz von KI nicht mehr bloß auf einzelne Inhalte. Ganze Profile mit Menschen, die es nie gegeben hat, machen Werbung für die Partei. Wie so etwas aussehen kann, zeigt eine Recherche des BR am Beispiel einer Influencerin mit dem Namen Larissa. Angeblich aus dem brandenburgischen Senftenberg, 22 Jahre alt und 4000 Follower bei Instagram. Doch die Frau gibt es nicht, sie ist vollständig KI-generiert. Das hindere das Profil aber nicht daran, munter Werbung für die AfD zu machen, so der Bericht. Von Lob für Alice Weidel bis hin zur Forderung, dass „alle Syrer“ Deutschland verlassen müssen, sei alles dabei gewesen. Und solange die Message stimme, sei den anderen Nutzer oft egal, dass die blonden, blauäugigen Frauen nicht real sind.
Studie zeigt: Viele Menschen erkennen KI-generierte Wahlkampfbilder nicht als Fälschung
Dabei ist es nicht so, dass man die Fälschungen nicht entlarven könnte. Die meisten Bilder und Videos lassen sich mit etwas Übung als solche erkennen. Nur leider fehlt diese Kompetenz den meisten Menschen, wie aus einer aktuellen Studie der Otto-Brenner-Stiftung hervorgeht. Die Arbeit mit dem Titel „Künstliche Intelligenz in politischen Kampagnen“ hat untersucht, wie die deutsche Bevölkerung den Einsatz KI-generierter Inhalte in der Politik bewertet und wahrnimmt. In einer Online-Untersuchung prüften Forschende, wie gut Menschen KI-erzeugte Wahlkampfbilder identifizieren können und welche emotionalen Reaktionen sie hervorrufen. Das Ergebnis: Viele Teilnehmer taten sich schwer damit, KI-generierte Bilder zu erkennen.
Mehrheit fordert klare Regeln: Bürger wollen Kennzeichnungspflicht für KI-Inhalte
Das hängt auch mit den Ansichten der Betrachter zusammen. „Ob KI-Inhalte erkannt und wie kritisch sie bewertet werden, hängt auch davon ab, ob die Botschaften mit der eigenen Weltsicht übereinstimmen“, so der Kommunikationswissenschaftler Pablo Jost, einer der Autoren der Studie, gegenüber dem Redaktionsnetzwerk Deutschland (RND). Die Studie belege außerdem: Auch wenn Bilder eindeutig als KI-generiert ausgewiesen sind, rufen sie nahezu die gleichen Emotionen hervor wie authentische Fotos.
Trotzdem wünscht sich die Bevölkerung eine Kennzeichnung. Mehr als 80 Prozent der Menschen wollen laut einer repräsentativen Befragung, die ebenfalls Teil der Studie war, eine KI-Kennzeichnungspflicht. Mehr als die Hälfte der Deutschen hält den Einsatz von Künstlicher Intelligenz in politischen Kampagnen grundsätzlich für gefährlich. (tpn)