Wie Soziale Medien im globalen Wahljahr 2024 mit Falschinformationen umgehen – und was das für User*innen bedeutet

Fakeprofile und gezielte Falschinformationen sind auf Social Media keine Neuigkeit. Aber die Qualität dieser Inhalte wird immer besser — strategisch, inhaltlich und ästhetisch. Das liegt an der massiven Weiterentwicklung von KIs und ihrer leichten Zugänglichkeit.

So hat die italienische Überwachungsfirma Cy4Gate ein Netzwerk von mehr als 900 KI-generierten Fake Profilen geschaffen, die wie Demonstrat:innen, Journalist:innen und junge Frauen wirkten.

“Our latest research found Cy4Gate using fake accounts with GAN profile photos, likely to scrape public information about its targets.”

Das berichtet Meta in seinem vierteljährlichen “Threat Report”. Diese Targets waren vor allem Journalist:innen und politische Aktivist:innen. Meta hat diese Profile gelöscht. Der Tech-Gigant verweist aber darauf, dass das Problem mit den KI-generierten Fake-Profilen immer stärker wird:

“Since 2019, we’ve seen a rapid rise in the number of networks that used profile photos generated using artificial intelligence techniques like generative adversarial networks (GAN). This technology is readily available on the internet, allowing anyone — including threat actors — to create a unique photo.”

Netzwerke wie die von Cy4Gate werden als Cooridnated Inauthentic Behaviour bezeichnet:

“CIB is a manipulative communication tactic that uses a mix of authentic, fake, and duplicated social media accounts to operate as an adversarial network (AN) across multiple social media platforms.”

So erklärte es Monica Murero von der Universität Nepal 2023 in einem Frontiers-Artikel. Diese Netzwerke würden nicht “nur” der Spionage dienen, sondern auch der Manipulation:

“[It] “secretly” exploits technology to massively harass, harm, or mislead the online debate around crucial issues for society […].”

Diese Manipulation findet in vielen Fällen so subtil statt, dass sie User:innen auch über längeren Zeitraum kaum auffällt — und wird deshalb auch “Spamouflage” genannt. Expertin auf dem Gebiet ist die chinesische Gruppierung Dragonbridge. Ihre Inhalte sind von laienhafter Qualität und ohne politischen Content, dafür aber mit einer unterschwelligen Pro-China-Nachricht.

Meine social media Erfahrungen begrenzen sich auf Twitter. Hier sind fake/bot accounts in sekundenschnelle zu erkennen. Reg. Datum sehr aktuell, Profilbild aus der Konserve, keine follower, extrem viele follower, keine „like history“ etc pp.
Als vor ein paar Wochen Meldungen (incl screenshots) von pro russischen Bots auf twitter die Runde machten, konnte ich nur müde lächeln. Wer derartige tweets für wahr nimmt, sollte sich den Gang zur Wahlurne nochmal durch den Kopf gehen lassen.
Die Lektion daraus ist bei brisanten tweets auf den Absender zu schauen. Faustformel: ein account mit hundertausenden oder Millionen muss darauf achten fake news auszusieben, wenn er seine Reichweite behalten will. Der default im Kopf bei social media content sollte stets auf „fake news“ stehen, solange man Absender und Quelle nicht gegengeprüft hat. Medienkompetenz ist der way to go

Das klingt harmlos, ist aber nicht zu unterschätzen: 2022 hat Google mehr als 50.000 Aktivitäten dieser Gruppe wahrgenommen, von YouTube-Videos bei zu Ad Campaigns. Twitter und Meta haben ähnliche Zahlen veröffentlicht. Wer dabei noch mentale Bilder von Hacker-Kiddies im Keller vor Augen hat, missversteht die Größenordnung dieser Netzwerke. Das sind großangelegte Operationen mit finanziellen und politischen Zielen.

Alle großen Plattformen sind davon betroffen, sogar Pinterest (!), und sie gehen schon seit Jahren aktiv dagegen an. Und ihre Bemühungen nehmen weiter zu: Auf der Munich Security Conference haben sie gemeinsam sieben Maßnahmen und acht Schritte beschlossen, um gegen Fakeprofile und ihre Falschinformationen vorzugehen — beispielsweise das Teilen von Informationen untereinander:

“Fostering cross-industry resilience to Deceptive AI Election Content by sharing best practices and exploring pathways to share best-in-class tools and/or technical signals about Deceptive AI Election Content in response to incidents.”

Grund für die verstärkten Bemühungen ist auch das globale Wahl(kampf)jahr 2024. Mit mehr als 40 Wahlen weltweit — darunter in Europa, USA, Indien und Russland — sehen Social-Media-Expert:innen eine regelrechte Welle von Manipulationen auf die Plattformen und ihre User:innen zukommen. Das sehen auch Meta & Co., weshalb sie nicht nur kollektiv, sondern auch individuell für ihre Plattformen reagieren — mit starken Veränderungen:

Soweit die Fakten. Nun zur Meinung.

Für mich haben sich folgende Fragen und Szenarien ergeben:

  • Wie bestimmt Meta, was “politischer Content” ist? Dass kann innerhalb eines Algorithmus-Updates nur über eine KI laufen. Daraus ergibt sich für mich die Sorge, wie so eine (us-amerikanisch-basierte) KI gefüttert wurde. Wird sie rechten Content genau so erkennen wie linken? Wird sie politischen Content “aus der Mitte” überhaupt als solchen erkennen oder als allgemeine Meinung wahrnehmen? Werden Aufrufe zu Demos, Streiks etc. klein gehalten? Politische Berichterstattung ebenso? Grassroots-Organisationen (wie #BLM 2020 oder #MeToo 2017)?
  • Was passiert, wenn politische Inhalte von AfD & Co. bei Threads mit dem Fact Checker markiert werden oder gar nicht mehr ausgespielt wird? Ich befürchte, dass sowas direkt in den Opfer-Mythos reinspielt und nur als Bestätigung von gesellschaftlicher Zensur instrumentalisiert wird.
  • Instagram wird als Informationsplattform massiv an Relevanz verlieren. Dabei kommen viele Menschen, besonders die junge Generation, genau dort mit solchen Themen in Kontakt. Da es ihnen der Mangel an politischen Content nicht auffallen wird, werden viele Menschen sich die Informationen auch nicht an anderer Stelle beschaffen — und es entsteht ein Vakuum. Ich hab Sorgen, dass gewisse Akteur:innen das geschickt nutzen werden.

Und nun die Frage(n) an die Community: Was glaubt ihr, welchen Effekt das in Deutschland haben wird — auch mit Ausblick auf die Europawahl und Bundestagswahl 2025. Habt ihr vielleicht schon ähnliche Newsartikel gesehen, wie die Sozialen Netzwerke mit dieser Lage umgehen wollen? Oder eigene Erfahrungen gemacht? Fallen euch noch weitere Szenarien ein, die da auf uns zukommen können? Habt ihr vielleicht eine Idee, wie man damit positiv umgehen könnte?

Danke für euren Input, Lisa (Social-Media-Managerin von Beruf :smiley:)