KI im politischen Wahlkampf // floomagazin

Wie gefährlich ist KI im politischen Wahlkampf 2024?

Das Superwahljahr 2024: Über 70 Wahlen finden heuer rund um die Welt statt, doch eine entscheidende Sache ist anders als sonst. Zum Ersten Mal ist KI im politischen Wahlkampf ein ernst zu nehmendes Tool, das auch zur Meinungsmache und für Fake News eingesetzt werden kann.

Welche Auswirkungen KI-Modelle auf Politik und Demokratie haben und welche potentiellen Möglichkeiten und Gefahren diese mit sich bringen, schauen wir uns heute an. 

Disclaimer: KI bringt auch viele Vorteile und neue Möglichkeiten mit sich. Gerade in der Medizin gelingen dank KI enorme Fortschritte. Dieser Artikel soll das Thema jedoch eher kritisch beleuchten, um Aufmerksamkeit über potenzielle Gefahren im politischen Wahlkampf zu schaffen.

Worum geht es eigentlich?

Fälschungen und Desinformation gab es im Wahlkampf schon immer, doch die Tools dafür waren noch nie so zugänglich wie heute. KI ist hochgelobt und in allermunde, die durch sie entstehenden neuen Möglichkeiten scheinbar unendlich.

Hinter dem Buzzword KI verbergen sich auch besorgniseregende Aspekte, die beispielsweise im politischen Wahlkampf sichtbar werden. Es ist auf der einen Seite toll, endlich hyperrealistische Kätzchen generieren zu können, oder sein eigenes Traumprojekt so umsetzen zu können, wie man sich es schon immer gewünscht hat. Doch wenn KI-Bilder, Videos und Audio auf die Meinungsbildung Einfluss nehmen, wird es zunehmend schwieriger die “Wahrheit” im Auge zu behalten. Das ist potenziell gefährlich bei Themen, die unsere Zukunft betreffen. Die Unterscheidungsmöglichkeiten zwischen Wahr- und Falschinformation werden zunehmend geringer.

Vorfälle mit KI im politischen Wahlkampf 2024

Aussagen, die sich zunehmend schwerer als Fake, oder Wahr einordnen lassen sind dabei nur ein Teil. In den Wahlkämpfen im letzten Jahr gab es immer mehr Meldungen über KI Einsätze. Darunter beispielsweise folgende:

  • Gefälschte KI-Audiodateien im Wahlkampf von Polen und Slowakei (2023 & 2024)

    Im Vorfeld der slowakischen Parlamentswahlen im vergangenen Herbst wurde auf Facebook eine brisante Audioaufnahme veröffentlicht. Diese erweckte den Anschein, als würde der führende progressive Kandidat mit einer Journalistin über Wahlbetrug sprechen. Obwohl die Aufnahme rasch als Fälschung identifiziert wurde, verbreitete sie sich dennoch rasant.

    Ein ähnlicher Vorfall ereignete sich auch in Polen während des Wahlkampfs. Dort tauchte ebenfalls eine gefälschte Audiodatei auf, in der die Opposition angeblich die Stimme des Ministerpräsidenten per KI imitierte.
  • Parlamentswahlen in Indien (April 2024)

    Bei der Präsidentschaftswahl in Indien zeigte sich der zunehmende Einsatz von KI im Wahlkampf. Politiker wie Premierminister Narendra Modi nutzen KI-generierte Videos und Avatare, um personalisierte Botschaften an Millionen von Wählern zu senden, um Wähler:innen in verschiedenen Sprachen anzusprechen und kosteneffizient zu erreichen.

    Hier geht’s zum Artikel der New York Times zum Thema
Screenshot des Videos auf der Yew York Times Seite // KI im politischen Wahlkampf
Screenshot des Videos auf der Yew York Times Seite // KI im politischen Wahlkampf
  • Elon Musk verbreitet KI Video von Kamala Harris (Juli 2024)

    Elon Musk teilte auf X ein KI-manipuliertes Wahlkampfvideo von Kamala Harris. Das Video enthält Deepfakes mit erfundenen, kontroversen Aussagen von Harris. Obwohl es gegen X’s Richtlinien verstößt, wurde es nicht als Manipulation gekennzeichnet. Musk bezeichnete es auf der Plattform als „grandios“, während Harris‘ Team es als „gefälschte Lügen“ verurteilte.

    Hier geht’s zum Artikel von der Standard zum Thema
Screenshot vom Post auf X // KI im politischen Wahlkampf
Screenshot vom Post auf X // KI im politischen Wahlkampf
  • Donald Trump postet KI Taylor Swift Bilder mit Wahlkampfzusprüchen (August 2024)

    Der ehemalige US-Präsident Donald Trump hat mit KI-generierten Bildern in sozialen Medien für Diskussionen gesorgt. Darunter eine gefälschte Unterstützungserklärung von Popstar Taylor Swift.

    Experten zufolge könnte Taylor Swift rechtlich gegen Trump vorgehen. Die Vorfälle werfen wichtige Fragen zur Regulierung von KI-generierten Inhalten in der Politik auf und könnten weitreichende Folgen für die demokratische Meinungsbildung haben.

    Hier geht’s zum Artikel von the Verge zum Thema
  • KI-Bilder im FPÖ-Wahlprogramm (August 2024)

    Ein Beispiel für die Nutzung von KI-Inhalten findet man im Wahlprogramm der FPÖ und auf ihren Social Media Accounts. Ähnlich wie im EU-Wahlprogramm der AFD, wo Zitate von KI-generierten Wähler:innen als Bilder auf Tiktok gepostet wurden, wird auch von der FPÖ mit Hilfe von KI-generierten Bildern der Zuspruch einer Ideologie vermittelt.

    Weiter unten im Artikel wird erläutert, warum auch Bilder, die erkennbar mit KI generiert wurden, potenziell problematisch sein können. Solche Bilder können alles mögliche zeigen, das macht sie zu einem starken ideologischen Werkzeug – vor allem für eher populistische Akteure.

    Hier geht’s zum Artikel von Ö1 zum Thema
KI Bilder im FPÖ-Wahlprogramm // KI im politischen Wahlkampf
KI Bilder im FPÖ-Wahlprogramm // KI im politischen Wahlkampf

Was genau ist denn jetzt das Problem?

Wir sind uns alle bewusst, dass man (gerade politische Inhalte) hinterfragen sollte, denn dass im politischen Wahlkampf nicht alles stimmt haben vergangene Vorfälle bereits bewiesen. Deepfakes gibt es beispielsweise schon lange. Das entscheidende was sich geändert hat: Die Qualität und die Geschwindigkeit diese zu erstellen war vor ein paar Jahren nicht ansatzweise auf dem heutigen Level.

Hier muss festgehalten werden, dass die neue Technik auch positive Seiten hat. So kann KI auch zur Sicherheit der Bevölkerung beitragen. Beispielsweise KI-Agents und Moderator:innen, die rund um die Uhr in Notfällen zur Stelle sind, um Meldungen sprechen zu können, wie die virtuelle KI-Pressesprecherin der Ukraine.

Wie soll man erkennen, was echt ist und was nicht?

Das Argument, dass KI nicht problematisch sei, da man in den meisten Fällen Bilder als KI-modifiziert oder generiert erkennen kann, sollte mit Vorsicht gebracht werden.

  1. Bist du dir sicher?

    Das stimmt vielleicht gerade noch, aber die KI-Modelle werden immer besser. KI vor einem Jahr und heute ist nicht vergleichbar. Gerade die neusten Modelle, wie „Flux.ai“, sind nahezu nicht mehr als KI erkennbar.

    Zusätzlich spielt das Medium eine große Rolle, auf dem diese Bilder letztendlich betrachtet werden. Am Handy sieht man ein Bild auf geringer Qualität und sehr klein. Das heißt, auch wenn ein Bild beim genaueren Betrachten als KI generiert erkannt werden kann, heißt das noch lange nicht, dass dies am Handy im Alltag auch so ist.

  2. Was ich einmal gesehen habe, bleibt im Unterbewusstsein

    Auch wenn ich das Bild aktiv als KI wahrnehme – es bleibt trotzdem im Unterbewusstsein. Bilder erzeugen Emotionen und Wahlkämpfe versuchen zu emotionalisieren.

    Erinnerungen spiegeln wissenschaftlich bewiesen nicht die Realität wieder, sondern sie sind verfälscht. Sie sind ein kleiner Teil der Wahrheit – getränkt mit subjektiven Wahrnehmungseinflüssen.

    Das bedeutet, dass auch, wenn ein Bild im Moment des Sehens als unecht identifiziert werden kann, dieser Fakt nur peripher wahrgenommen wird. Am Ende als Erinnerung „abgespeichert“ wird nur das Bild, was ich aktiv wahrgenommen habe und nicht der Fakt, dass es KI generiert ist.

    Falls dich das Thema weiter interessiert, haben wir dir einen interessanten Artikel von the Verge hier verlinkt.

KI im politischen Wahlkampf als Tool für Propaganda

KI hilft nahezu jedes erdenkliche Bild zu generieren. Bilder oder Videos, die früher enorme zeitliche oder finanzielle Ressourcen benötigt haben, lassen sich jetzt in nur wenigen Sekunden erstellen. 

Auch die noch nie dagewesene Reichweite (dank Social Media und anderen Medien) trägt dazu bei, dass politische Akteure ihre Werte verbreiten können – Propaganda war noch nie so einfach und effektiv.

KI und Social Media

Abgesehen von generativer KI gibt es ein weiteres großes Einsatzgebiet: Bots waren noch nie so schlau wie heute. Die sogenannten GenAI Bots können fließende Gespräche in Chats simulieren, Kommentare schreiben und angepasst interagieren.

Bestimmte Posts von politischen Akteuren können so mit Hilfe von Bots öfter geklickt, geliked oder kommentiert werden. Das hat Auswirkungen auf Reichweite und Zuspruch. Das Gleiche gilt für KI Hate-Kommentare und die gezielte Verbreitung von Fake News von politischen Gegner:innen.

KI Bilder können noch als echt oder fake identifiziert werden. Bei Reichweite oder einfachen Likes kann man aber nicht zwischen KI und echten Usern unterscheiden – statistische Berechnungen machen dies zwar grundsätzlich möglich, aber das liegt außerhalb der Möglichkeiten einzelner User:innen.

Manipulierte Like-Zahlen und Kommentare machen unterbewusst etwas: Mehr Zuspruch, oder eine größer wirkende Community können beispielsweise radikaleren Gruppen Zuversicht verleihen. Man fühlt sich “stärker”, weil man sich als Teil einer größeren Gruppe sieht. Die politische Dynamik ändert sich, was potentiell zu einer stärkeren Spaltung der Gesellschaft beitragen kann.

Was kann man dagegen tun?

Auch wenn man von einem Hype rund um KI sprechen kann, wird sie danach trotzdem Teil unseres Alltags bleiben – darum müssen wir lernen, mit ihr umzugehen und Gesetze schaffen, um diese zu Regulieren. Erste Ansätze gibt es da bereits:

Der Digital Services Act (gültig seit Februar 2024) von der EU ist ein Gesetz, um das Internet zu regulieren. Der DSA zwingt große Plattformen beispielsweise zu einer Sorgfaltspflicht. Kontroverse Postings müssen moderiert und Desinformation zeitnah entfernt werden.

Der AI Act (auch von der EU) ist das weltweit erste Gesetz, um KI zu regulieren. Es sieht beispielsweise vor, dass politischer Content, der KI generiert ist, sichtbar gekennzeichnet werden muss. Das Gesetz ist beschlossen, aber noch nicht in Kraft. (Stand 24.August 2024)

Jedoch ist es unwahrscheinlich, dass Desinformation sich tatsächlich durch Regulierung beseitigen lässt. Deshalb ist es wichtig, dass ein öffentliches Bewusstsein in der Gesellschaft geschaffen wird. Erkennung von KI Inhalten und ein Verständnis für die Auswirkungen von KI sind wichtig, um selbst nicht „Opfer“ von Falschinformation zu werden. Das beinhaltet auch ein grundlegendes Verständnis darüber wie KI funktioniert, was sie kann und wo ihre Grenzen sind.

Wir hoffen dir hat der Artikel gefallen. Schön, dass du bis zum Ende gelesen hast. Wenn du mehr über KI im politischen Wahlkampf wissen möchtest, kannst du im Quellenverzeichnis nachschauen, da findest du weitere spannende Artikel zum Thema.

Quellenverzeichnis – KI im politischen Wahlkampf