Startseite TOP Deepfakes im Wahlkampf | Wiener Zeitung

Deepfakes im Wahlkampf | Wiener Zeitung

von Max

Hat Donald Trump seine Rivalin Kamala Harris tatsächlich so verliebt angesehen? Trägt Putin in seiner Freizeit Regenbogenkleider? Alles nur ein bisschen Spaß aus dem Haus der Künstlichen Intelligenz. Doch was, wenn die KI im Wahlkampf für Manipulationszwecke eingesetzt wird?

Es amüsiert, Bilder vom Papst zu sehen, wie er im weißen Gangster-Daunenmantel, behangen mit dicken Goldketten um den Hals, vor Paparrazi posiert. Oder einen Clip mit Russlands Präsidenten Wladimir Putin im schulterfreien Regenbogenkleid, wie er einen Laufsteg entlanggeht. Oder ein Video von US-Präsidentschaftskandidatin Kamala Harris, wie sie gemeinsam mit ihrem Kontrahenten Donald Trump liebevoll ein Duett vor dem Hintergrund chinesischer Landschaften singt – auf Mandarin.

Nichts davon ist echt. Es sind Deepfakes, also Bilder, Videos oder Tonaufnahmen, die mit Künstlicher Intelligenz erzeugt wurden und täuschend echte Inhalte vorgaukeln. Unterhaltsam in vielen Kontexten. Harmlosere Spielereien, Comedy, Satire. Wer lacht nicht gern über einen Gangster-Papst oder einen Laufsteg-Putin? Doch was, wenn diese Inhalte eingesetzt werden, um andere zu diffamieren, Desinformationen zu streuen und so politisch zu manipulieren?

Tote Väter werden zum Leben erweckt

Das haben sich Wissenschaftler:innen des Österreichischen Instituts für angewandte Telekommmunikation (ÖIAT) als Teil eines breit angelegten Sicherheitsforschungsprojekts (KIRAS) angesehen. Sie haben recherchiert, wie in diesem Superwahljahr 2024 Deepfakes im Wahlkampf in sieben Ländern – Frankreich, Italien, Großbritannien, USA, Indien, Taiwan und Südkorea – eingesetzt wurden. In Frankreich nutzten rechtsextreme Parteien bei den Parlamentswahlen im Juni KI-generierte Bilder und Videos, um Anti-Einwanderungsnarrative zu stützen. In Großbritannien verlangsamte man die Sprechgeschwindigkeit politischer Kontrahent:innen in nachbearbeiteten Videoclips – „sogennante Cheapfakes“ so sehr, dass sie den Eindruck erweckten, vor laufender Kamera zu lallen. In Indien ließen Kandidaten ihre längst verstorbenen – aber in der Bevölkerung extrem populären – Väter in Wahlclips dank KI wiederauferstehen und werben. In den USA wurden Wähler:innen von einer täuschend echten Stimme angerufen, die nach dem amtierenden Präsidenten Joe Biden klang, der sie aufforderte, bei den Vorwahlen nicht wählen zu gehen – und sich ihre Stimme für November aufzuheben.

36 Prozent ändern ihre Wahlentscheidung

Kolleg:innen aus den USA haben schon früh Alarm geschlagen. Seit der Präsidentschaftswahl 2020 erfahren Deepfakes im Wahlkampf einen regelrechten Boom. Schon jetzt, noch vor dem Wahltermin im November, sind 77 Prozent aller US-Wahlberechtigten auf Deepfake-Inhalte gestoßen. Die Auswirkungen sind erschreckend: 81,5 Prozent stellten nach der Sichtung der gefälschten Inhalte ihre geplante Wahlentscheidung in Frage, 36 Prozent revidierten sie schließlich völlig. „Deepfakes, die dem bevorzugten Kandidaten oder der bevorzugten Kandidatin Gewalt unterstellt haben, haben dabei den größten Einfluss, gefolgt von skandalösen Handlungen der bevorzugten Partei“, erklärt Louise Beltzung, ÖIAT-Projektleiterin der Recherche, der WZ.

Angstmachende Narrative

Verwendet werden Deepfakes entlang des gesamten politischen Spektrums, doch tauchen sie verhältnismäßig oft bei Vertreter:innen rechter und rechtsextremer Parteien auf. Das hat einen bestimmten Grund, meint Beltzung. Man habe festgestellt, dass KI insbesondere dafür genutzt wird, um Narrative zu stützen, die mit Angst arbeiten und dafür gewisse Bilder brauchen. „Beispielsweise kann ein kleines Boot mit erschöpften Geflüchteten, die zusammengepfercht drinnen sitzen und beim Betrachter womöglich Mitleid erzeugen, mit Künstlicher Intelligenz vollkommen verfälscht werden. Dann zeigt man eben ein großes Boot, in dem viele bedrohlich wirkende Männer sehr bequem herumlungern“, erzählt sie.

Cheapfakes beliebter als Deepfakes

In asiatischen Ländern hat man schon seit längerer Zeit Erfahrungen mit durch KI erzeugten Inhalten in Wahlkämpfen gemacht. In Taiwan, dem demokratischen Inselstaat, der von China als abtrünnige Provinz betrachtet wird, ist man es seit Jahren gewohnt, dass Troll-Netzwerke kurz vor dem Wahltermin diffamierendes Material progressiver Kandidat:innen, die sich kritisch gegenüber China äußern, in Umlauf bringen. Hier kommen allerdings weniger „Deepfakes“ als vielmehr „Cheapfakes“ zum Einsatz. Dabei handelt es sich um Fotos, Videos und Audiodateien, die nicht von einer KI erzeugt wurden, aber dennoch manipuliert sind. So wird etwa die Abspielgeschwindigkeit des Gesagten beschleunigt oder gedrosselt, um Personen betrunken oder wirr wirken zu lassen. Oder es werden Sequenzen in Videos so zusammengeschnitten, dass sich der Kontext verändert. Da Cheapfakes einfacher zu produzieren sind als Deepfakes, tauchen sie laut Expert:innen vermehrt auf.

KI-geschaffene Sprachgenies

Ein Beispiel für KI im Wahlkampf, die bei entsprechender Kennzeichnung auch Verbundenheit herstellen kann, ist Indien. Dort werden Deepfakes von Politiker:innen verwendet, die in mehreren der insgesamt 22 Landessprachen Indiens (und dazugehörenden Dialekten) in Videos ihre Wählerschaft direkt und personalisiert per Name adressieren. So wurden während der Parlamentswahlen, die von April bis Juni gedauert haben, KI-generierte Avatare des amtierenden Premierministers Narendra Modi (und anderer Politiker) per WhatsApp herumgeschickt, in denen er die Empfänger:innen der Nachrichten persönlich begrüßte und von der geleisteten Regierungsarbeit schwärmte. Gekennzeichnet als KI war der mehrsprachige Modi hingegen nicht.

Und Österreich?

In Österreich halten sich die Parteien bislang zurück, was Inhalte made by KI angeht. Im März haben die Landtagsparteien in Oberösterreich sogar ein Abkommen unterzeichnet, in dem sie versichern, keine Deepfakes im Wahlkampf verwenden zu wollen. Bis auf die FPÖ haben alle Parteien das Abkommen unterzeichnet. Bei den Freiheitlichen erkennen die Expert:innen eine Nutzung der KI für Symbolbilder. Etwa, wenn es darum geht, vor dem politischen Islam zu warnen und „Kalifatsanhänger“ als brüllende fromme Muslime darzustellen. Für den Laien ist bei diesen Beispielen noch klar ersichtlich, dass es sich dabei nicht um Bilder echter Menschen handelt. Darauf verlassen kann man sich aber nicht, meint Forscherin Louise Beltzung: „Wir überschätzen uns, wenn wir glauben, dass wir Deepfakes erkennen. Tendenziell glauben wir schon das, was wir sehen.“


Dir hat dieser Beitrag besonders gut gefallen oder du hast Hinweise für uns – sag uns deine Meinung unter [email protected]. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.


Infos und Quellen

Genese

Ein Teil der ÖIAT-Recherche ist auch der WZ zu verdanken. Solmaz Khorsands Text „Mit dem Chatbot gegen China“ hat die Forschenden inspiriert, sich Taiwan als Beispiel anzuschauen.

Gesprächspartnerin

Daten und Fakten

  • Die vom ÖIAT ausgeführte Recherche zu Deepfakes im Wahlkampf ist Teil des vom AIT (Austrian Institute for Technology) geleiteten Kooperationsforschungsprojekts „DefameFakes“, das an der Detektion von Deepfakes arbeitet. Es läuft von 2024 bis 2026 und wird vom Sicherheitsforschungs-Förderprogramm „KIRAS“ des Finanzministeriums finanziert.

  • Der Begriff Deepfake setzt sich aus den Begriffen „deep learning“ und „fake“ zusammen. Deep learning ist eine spezielle KI-Technik und „fake“ steht für Fälschung oder Falschmeldung.

  • Bei Cheap Fakes (auch Shallow Fakes genannt) handelt es sich um manipulierte Fotos oder Videos, die im Unterschied zu den technologisch anspruchsvolleren Deepfakes, deren Technologie auf Künstlicher Intelligenz und Machine Learning basiert, mit einfach zugänglichen Methoden und herkömmlichen Programmen hergestellt werden können.

Quellen

Das Thema in der WZ

Das Thema in anderen Medien

über uns

Wp Logo2

Damit wir Ihnen möglichst schnell weiterhelfen können, bitten wir Sie, je nach Anliegen über die hier genannten Wege mit uns in Kontakt zu treten.

Aktuelle Nachrichten

Newsletter

2020-2022 – Wiener Presse. Alle Rechte vorbehalten