1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
PolitikEuropa

Faktencheck: Wie KI den Wahlkampf verzerrt

29. September 2024

Sie spielen mit Emotionen, zeichnen bedrohliche Zukunftsszenarien und kreieren eine alternative Realität: Parteien nutzen immer mehr KI-generierte Inhalte in Wahlkämpfen. Wie beeinflusst das unsere Wahrnehmung?

https://p.dw.com/p/4l9I9
Screenshot eines KI-generierten Wahlkampfspots der AfD. Zu sehen ist ein blonder junger Mann in weißem T-Shirt mit einem Wahlzettel
KI-generierte Wahlkampfspot: Politische Parteien setzen im Wahlkampf mehr und mehr auf SoftfakesBild: X/@BrandenburgAfD

Ein junger Mann in weißem Hemd, mit blonden Haaren, blauen Augen und markanten Wangenknochen setzt sein Kreuz mit blauer Tinte auf den Stimmzettel. Eine andere Szene aus demselben Video zeigt zahlreiche verschleierte Frauen auf der Straße einer Innenstadt. Dieses Wahlwerbevideoerschien auf dem X-Account der AfD Brandenburg im Rahmen der Landtagswahl in Brandenburg. Inzwischen hat das Video 147.000 Views generiert. Ein anderes Beispiel in einem ähnlichen Stil hat schon über 870.000 Views.

Diese Videos spielen mit Emotionen, zeichnen bedrohliche Zukunftsszenarien und bieten einfache Lösungen an. Nur sind sie eben nicht real, sondern mithilfe von Künstlicher Intelligenz erstellt worden. Die Produktion ist oft schnell, einfach und günstig. Auch ist hier im Gegensatz zu einigen anderen KI-Videos eindeutig zu erkennen, dass die Inhalte am Computer generiert wurden.

Im Gegensatz zu Deepfakes, die Stimmen, Gesten und Bewegungen täuschend echt simulieren und dem Nutzer vorgaukeln, es handele sich um echte Personen, sind Videos wie im obigen Beispiel eindeutig als computergeneriert zu erkennen.

Solche "Softfakes" werden zunehmend im politischen Wahlkampf eingesetzt und sind eine scheinbar beliebte Methode von Parteien und Politikern, um sich und ihre Inhalte sympathischer oder die des Gegners bedrohlicher erscheinen zu lassen.

 "Softfakes" im politischen Wahlkampf 

Besonders im Superwahljahr 2024 spielt das eine Rolle, denn in vielen Teilen der Erde wurde oder wird gewählt. So nutzte der damalige AfD-Spitzenkandidat Maximilian Krah für seinen Wahlkampf zur Europawahl dieses Jahr zahlreiche KI-Bilder für seinen TikTok-Account. 

Dies ist leicht zu erkennen an den unnatürlichen, zu glatten Gesichtern der abgebildeten Figuren. Ein freundlich lächelnder junger Mann auf dem einen Vorschaubild, ein alter Mann, der in einer Mülltonne wühlt auf einem anderen - sie alle sind nicht real.

Screenshot Tiktok Maximilian Krah, AfD - viele kleine Vorschaubilder mit roten Überschrifts-Balken
Einfach erstellte und computergenerierte Bilder zieren den TikTok-Account von Maximilian KrahBild: Tiktok

Auch in Frankreich haben Parteien im Vorfeld der EU- und Parlamentswahlen mit einfachen Tools Bilder generiert, die offenbar besonders emotionalisierend wirken sollen (Beispiele hier, hier, hier, hier, hierund hier)

Eine Studie, die die Social Media Accounts aller Parteien im französischen Wahlkampf untersucht hat, ist zu dem Ergebnis gekommen, dass vor allem rechtspopulistische Parteien "Softfakes" einsetzen. Kein einziger Beitrag wurde als KI-generiert gekennzeichnet. Und das obwohl sich alle Parteien im Rahmen der Wahl zum Europaparlament zu einem Code of Conduct verpflichtet haben.

Demnach sollten keine irreführenden Inhalte produziert, verwendet oder verbreitet werden. Dazu zählen explizit auch KI-generierte Bilder und Videos. Dennoch haben in Frankreich Parteien wie Les Patriotes, Rassemblement National oder Reconquête solche Inhalte ohne deutliche Kennzeichnung in großem Umfang benutzt.

Auch im US-Wahlkampf kommen diese generierten Bilder zum Einsatz. So postete Donald Trump ein Foto von einer Frau, die angeblich Kamala Harris vor einer uniformierten Menschenmenge darstellt. Die Halle in dem KI-generierten Bild ist übersät mit kommunistischer Symbolik: Hammer, Sichel und rote Fahnen. Diese Bilder dienen vor allem dazu, Trumps Konkurrentin eine kommunistische Ideologie zu unterstellen – für viele in den USA ein Totschlagargument. 

Die Problematik solcher Inhalte geht über Desinformationen und die Verbreitung von Fake News hinaus: Es werden alternative Realitäten geschaffen. Sie schaffen eine Welt, in der künstliche Versionen der Realität realer erscheinen als die Realität selbst. Frei nach dem Motto des Künstlers Pablo Picasso: Alles, was man sich vorstellen kann, ist real. 

Screenshot X.com Donald Trumps mit KI Bild - zu sehen eine Person von hinten, die Harris darstellen soll, vor gleichförmiger Zuhörer-Menge mit roten Fahnen vor großer roter Flagge mit Hammer und Sichel neben Logo "Chicago"
Donald Trump verbreitet ein KI-generiertes Bild, das angeblich Kamala Harris zeigen sollBild: @realDonaldTrump/X.com

Wie beeinflusst das unsere Wahrnehmung? 

Doch nehmen wir die offensichtlich KI-generierten Videos und Bilder einer alternativen Wirklichkeit durch ihre schiere Menge als Realität wahr?

Mit den möglichen Auswirkungen künstlich erschaffener menschenähnlicher Figuren auf den Zuschauer haben sich Wissenschaftler bereits in den 1970er Jahren beschäftigt. Der japanische Robotik-Ingenieur Masahiro Mori prägte den Begriff des "unheimlichen Tals", des Uncanny-Valley-Effekts. Dieser besagt, dass der Betrachter einen Roboter umso unheimlicher findet, je menschlicher er aussieht.

"Es entsteht eine Diskrepanz zwischen dem, was wir denken und dem, was wir vor uns sehen", sagt Nicholas David Bowman, Chefredakteur des Journal of Media Psychology und Associate Professor at the Newhouse School of Public Communications at Syracuse University, USA im Gespräch mit der DW. "Wir fühlen dieses Unbehagen, weil wir wissen, dass es falsch ist, und das macht es unangenehm für uns, weil wir es nicht in Einklang bringen können."

Die Akzeptanz wird also geringer, je menschenähnlicher die künstlichen Figuren aussehen. Doch was passiert, wenn KI-generierte Bilder das Uncanny Valley durchschreiten und wir uns nicht mehr davor gruseln? "Wenn wir erst einmal den Uncanny-Valley-Effekt hinter uns gelassen haben, werden wir den Unterschied zwischen echt und unecht nicht einmal mehr bemerken", so Bowman.

Noch seien wir nicht so weit: "Die Menschen haben dieses Bauchgefühl, wenn sie ein Video sehen. Das ist unser bester Detektor, um festzustellen, ob etwas KI-generiert oder real ist."

Problematisch wird es laut Bowman, wenn Menschen dieses Bauchgefühl ignorieren, weil sie dem Fake glauben wollen: "Die Leute können das ausschalten. Wenn sie parteiisch sind, ganz links oder ganz rechts, und sie sehen Inhalte, die nicht real sind, ist es Ihnen egal, weil Sie mit dem Inhalt einverstanden sind." So würden Menschen oft gar nicht versuchen, es zu erkennen, weil es bereits ihren Überzeugungen entspricht und das bestätigt, was sie sehen möchten.

Es handelt sich dabei um einen psychologischen Effekt, der nur indirekt mit dem technischem Fortschritt zusammenhängt. Der Mensch entscheidet, wie er auf solche Bilder reagiert und damit umgeht.

Diese Entscheidung ist dabei keinesfalls statisch, sondern die Bezugspunkte ändern sich ständig. "Während früher der Film Polar Express aus dem Jahr 2004 als unheimlich und gruselig angesehen wurde, weil die Figuren generiert waren, ist er heute eine ganz normale 'Weihnachtstradition'", sagt Bowman. 

Faktencheck: Wie erkenne ich KI-Videos von Sora?

Einfluss von KI: Gefahr für die Informationslandschaft 

Im vergangenen Jahr wurden bei mehreren Wahlen zunehmend gefälschte Inhalte wie Deepfakes oder Softfakes verwendet. Das beobachtet auch Philip Howard. Er ist Präsident und Mitbegründer des International Panel on the Information Environment (IPIE), einer Organisation, die in Zusammenarbeit mit Wissenschaftlern weltweit Studien zur Entwicklung der Informationslandschaft erstellt.

Für ihre aktuelle Studie wurden mehr als 400 Experten aus über 60 Ländern befragt. Mehr als zwei Drittel (67 Prozent) der Experten sind demnach besorgt über den zunehmenden Einfluss von KI-Technologien in den nächsten fünf Jahren. Eine große Gefahr für die Informationslandschaft sehen sie in den Eigentümern von Social-Media-Plattformen, Regierungen und Politikern.

"Ich denke, wir sind über den Punkt der Selbstregulierung der Industrie hinaus. Ja, die KI-Firmen prüfen sich selbst. Sie benoten ihre eigenen Hausaufgaben", so Howard im Interview mit der DW.

Dies sei jedoch keine ausreichende Prüfung, da sie so nicht unabhängig sei. "Wenn wir also die Aufsichtsbehörden dazu bringen können, auf unabhängige Prüfungen zu drängen, so dass unabhängige Ermittler, Journalisten und Akademiker unter die Haube schauen können, dann glaube ich, dass wir die Dinge umkehren können."

In diesem Jahr gab es einen regelrechten Boom bei der Verwendung von KI-generierten Inhalten für Wahlen. Experten gehen davon aus, dass es auch in Zukunft noch mehr solcher Inhalte geben wird. Dabei könnte nicht nur die Frage wichtig sein, ob es sich um Fakes handelt, sondern auch wie die Regulierungsbehörden darauf reagieren werden. Und vielleicht noch wichtiger, wie Nutzer damit umgehen wollen.

DW Mitarbeiterportrait | Rayna Breuer
Rayna Breuer Multimediajournalistin und Redakteurin