Angst vor KI-Manipulation bei Wahlen wächst – 26/10/2024 – Welt
Am 5. November erhältst du eine Sprachnachricht auf deinem Handy von Kamala Harris, die besagt, dass die Wahl auf den nächsten Tag verschoben wurde. Oder vielleicht ist es Donald Trump, der sagt, dass es einen Vorfall gab und deshalb die Wahllokale verlegt wurden. Dann gehst du auf Plattform X und siehst eine Reihe von Videos, in denen Mitarbeiter gefälschte Stimmen in Wahlurnen füllen, die gerade im Trend liegen.
Experten warnen davor, dass der Einsatz von künstlicher Intelligenz im aktuellen amerikanischen Wahlzyklus, der bisher relativ begrenzt war, im November eine große Überraschung sein könnte. Die Gefahr kommt nicht nur von innen, sondern auch von außen, angesichts der bereits festgestellten Anzeichen von Einmischungsversuchen durch Russland, China und den Iran.
Am Mittwoch veröffentlichte Microsoft einen Bericht, der auf ein zunehmendes Engagement dieser Länder mit dem bevorstehenden Wahltermin hinweist.
„Russische Akteure integrieren weiterhin generative KI in ihre Inhalte, iranische Gruppen intensivieren ihre Vorbereitungen zur Durchführung von Cyber-Influencing-Operationen, während chinesische Akteure ihren Fokus auf verschiedene weniger bekannte Kandidaten und Kongressmitglieder verlagern. Insbesondere russische Akteure versuchten, die Harris-Walz-Kampagne anzugreifen, indem sie den Charakter der Kandidaten angriffen“, so das Unternehmen.
„Mit besonderem Fokus auf die 48 Stunden vor und nach dem Wahltag sollten Wähler, Regierungsinstitutionen, Kandidaten und Parteien wachsam gegenüber betrügerischen und verdächtigen Online-Aktivitäten bleiben“, empfiehlt es.
Letzte Woche wurde ein Video mit einem angeblichen ehemaligen Schüler von Tim Walz, dem Vizepräsidentschaftskandidaten von Kamala, veröffentlicht, der den Demokraten beschuldigt, sich unangemessen gegenüber den Schülern verhalten zu haben, als er Lehrer war. Die Aufnahme wurde auf der Plattform X, dem Netzwerk des Milliardärs Elon Musk, veröffentlicht. Eine Reihe von Beiträgen, die die Anschuldigungen unterstützen, wurden von Profilen, die Trump unterstützen, in der Folge veröffentlicht.
Laut Beamten der Biden-Regierung wurde die Kampagne gegen Walz von russischen Akteuren ins Leben gerufen und verstärkt und entspricht der bereits beobachteten Standardtaktik: Inszenierung von Videos für die Kamera.
„Morgan Finkelstein, Sprecherin für nationale Sicherheit der demokratischen Kampagne, sagte der Folha: „Vladimir Putin will, dass Donald Trump gewinnt, weil er weiß, dass Trump sich beugen und ihm alles geben wird, was er will. Wir verurteilen auf das Schärfste jeden Versuch ausländischer Akteure, in die US-Wahlen einzugreifen.“
In dieser Woche wurde ein Werbespot mit einer Reihe von Prominenten – wie Michael Douglas, Laura Dern, Orlando Bloom, Amy Schumer und Chris Rock – veröffentlicht, um die Wähler vor der Verwendung von KI zur Erzeugung von Desinformationen darüber zu warnen, wann, wo und wie sie wählen sollen. Am Ende des Videos wird enthüllt, dass die Beteiligung einiger der Schauspieler tatsächlich von der Technologie generiert wurde.
Miles Taylor, einer der Organisatoren der Kampagne, schreibt in einem Artikel für die Time, dass eine der Hauptängste, die er von staatlichen und lokalen Behörden in den USA gehört hat, die Entstehung angeblicher Beweise für Wahlbetrug ist. Die Sorge besteht darin, dass es angesichts der Authentizität, die die KI verleiht, Wochen oder sogar Monate dauern könnte, um ihre Falschheit zu beweisen.
„Schlimmer noch, das Verhältnis zwischen Regierungsbeamten und sozialen Medienunternehmen ist stärker zerrüttet als je zuvor. Gerichtsverfahren und Kontroversen über Online-Zensur haben eine abschreckende Wirkung erzeugt, die beide Seiten zögern lässt, zusammenzuarbeiten. Das Ergebnis ist, dass die Behörden in Krisenzeiten weniger technische Ressourcen haben“, vergleicht er es mit der Wahl von 2020.
Um sich vorzubereiten, versuchen die staatlichen Stellen, die für die Überwachung der Wahl zuständig sind, sich vorzubereiten. Arizona hat beispielsweise in den letzten Monaten Schulungen durchgeführt, die sich mit Problemen von Deepfakes in Video- und Sprachform befassen.
Es ist dieses letzte Format, das die Forscherin Aruna Sankaranarayanan, Mitglied des Forschungslabors des MIT für künstliche Intelligenz, am meisten besorgt. Nach einer Reihe von Experimenten mit Variationen von Texten, Audio und Video mit politischer Desinformation stellte die Gruppe fest, dass die Fähigkeit, zwischen falschen und echten Inhalten zu unterscheiden, umso größer wird, je komplexer das Medium ist.
„Die Deepfake-Technologie, zumindest im visuellen Bereich, ist noch nicht so weit fortgeschritten, dass ein Durchschnittsmensch einfach einen hochwertigen Deepfake erstellen kann, den jemand nicht erkennen kann“, sagt sie. Außerdem sagt sie, dass die Tools zur Erstellung solcher Inhalte mühsam sind – die Forscherin brauchte mehr als eine Woche, um jedes Video zu produzieren.
Im Falle von Audio konnte sie jedoch in wenigen Minuten welche erstellen.
„Eine der großen Entdeckungen war, dass die Audios, die wir mit den Stimmen von Trump und Biden erstellt haben, nicht so gut sind wie die synthetisch generierten. Das ist wahrscheinlich viel gefährlicher. Wir leben bereits in einer Zeit, in der Telefonbetrug so häufig ist. Daher machen mir Deepfakes von Audio noch mehr Sorgen als Deepfakes von Video“, sagt sie.
Bisher war der Einsatz von KI im Präsidentschaftswahlkampf relativ zurückhaltend. Der Fall, der Experten zufolge dem schlimmsten Szenario am nächsten kommt, war ein Audio, das die Stimme von Joe Biden simuliert und verwendet wurde, um Wähler von der Teilnahme an den Vorwahlen in New Hampshire im Januar abzuschrecken.
Andere bekannte Beispiele für die Verwendung des Tools, um das Publikum zu täuschen, waren gefälschte Bilder, die eine Unterstützung von Taylor Swift für Trump vortäuschten, und eine gefälschte Anzeige, bei der die Stimme von Kamala manipuliert wurde, um zu behaupten, dass sie ausgewählt wurde, um Biden aufgrund ihrer Hautfarbe und Geschlechts zu ersetzen, die von Elon Musk im August geteilt wurde.
Aber abgesehen von diesen prominenten Fällen war der Einsatz von KI fast wie ein Parodie-Werkzeug, das offensichtlich gefälschte Bilder von Trump als Bodybuilder oder umgeben von Katzen und Hunden oder von Kamala mit einem kommunistischen Look erzeugte.
„Wir haben keine Beweise für einen intensiven Einsatz von KI gesehen, um problematische Informationen durch offizielle Kampagnen zu verbreiten“, sagt Jennifer Stromer-Galley vom Institut für Demokratie, Journalismus und Bürgerschaft an der Syracuse University, die politische Anzeigen in sozialen Medien überwacht.
„Der Einsatz von KI zur Erzeugung von Desinformationen findet statt, insbesondere auf Twitter, durch normale Menschen und Mikro-Influencer, um eine ideologische Botschaft zu fördern“, fügt sie hinzu.