Lage enthält (laut TikTok) Hassrede und Fake-News

Moin!

Wie ihr es in einer der letzten Folgen gewünscht habt, habe ich das erste Kapitel der Lage von gestern (Spionagevorwurf gegen Jian G. & Krah) mal etwas gekürzt, auf 1,2x beschleunigt (damit es unter 10 Minuten kommt und zu TikTok passt), untertitelt auf TikTok hochgeladen.

Die Erfahrung war höchst negativ. Nicht nur hat es deutlich länger gedauert, das mit den Apps zusammen zu basteln, als ich es erwartet habe (so 3 bis 4 Stunden - Viel ging drauf, um die automatischen Untertitel wenigstens halbwegs im fummeligen CapCut zu korrigieren), TikTok hat das Video praktisch sofort gesperrt, da es automatisch Hassrede erkannt hat. Heute morgen wurden dann auch noch automatisch Fake-News erkannt, weswegen ich eine Warnung auf den Account erhalten habe.

Habe zwar sofort gegen die beiden abstrusen Vorwürfe Widerspruch eingelegt, aber dass das Video kurzfristig freigeschaltet und dann noch größere Kreise zieht, erwarte ich nicht mehr.

Schade. Gerade dieser Beitrag war meiner Meinung nach gut für TikTok und seine Zuschauer.

3 „Gefällt mir“

[Absatz entfernt]

Interessant ist die sofortige Sperrung wegen „Hassrede“. Dazu muss man wissen, dass der Account von Maximilian Krah am 20.03. seitens TikTok für 90 Tage eingeschränkt wurde, daher: Er wird aktuell nicht mehr vom Algorithmus in die „Für dich“-Seiten gespült, was ihm massiv Reichweite nimmt. Diese Einschränkung zusammen mit einem Titel, der Krah enthält und vielleicht auch dem etwas „Verdächtigen“ Wort „Nation“ könnte bei einer automatisierten Prüfung vielleicht dazu führen, dass der Inhalt direkt gesperrt wird. Ähnliches wäre bei der automatisierten Entdeckung von Fake News möglich.

Das Problem ist hier wirklich:
Wir fordern ja geradezu von TikTok, gegen die AfD und Fake News vorzugehen. Aufgrund der massiven Mengen von Beiträgen ist das aber nur automatisiert möglich. Und für eine automatisierte Prüfung ist es - noch - relativ schwierig, den schmalen Grat zwischen „Bericht über Fake News und Enttarnung von oder Warnung vor Fake News“ und „Fake News“ zu meistern. Das geht fast nur über ein System von verifizierten Content Creators, sodass ein Video nicht „für sich alleine“, sondern im Kontext zum Ersteller bewertet wird. Das wiederum führt dazu, dass neue Accounts oder Accounts, die bisher nicht als zuverlässige politische/journalistische Akteure identifiziert wurden, schnell ins Visier geraten.

Kurzum:
Ich gehe nicht davon aus, dass das Handeln TikToks sich gezielt gegen die LdN gerichtet hat, sondern dass es schlicht ein Problem mit der Erkennung von Fake News ist.

Das überrascht nich nicht. Auf YouTube erlebe ich seit Jahren, dass content creator bestimme Worte (Vergewaltigung oder Terror dürften zb dazugehören) selbst zensieren, um nicht demonitarisiert oder gesperrt zu werden. Finde ich ziemlich kacke.
Orwell hat die 7meilenstiefel angezogen

2 „Gefällt mir“

Hi Daniel!

Zu deinem ersten Punkt: Die Lage ist unter der CC BY 3.0 DE veröffentlicht, und Ulf & Philip haben explizit dazu aufgerufen, Teile der Lage auf TikTok veröffentlichen: https://lagedernation.org/podcast/ldn374-deutschland-kann-klimaziele-erreichen-was-tun-mit-tiktok-martin-fehrensen-social-media-watchblog-telegram-channel-der-lage-organspende-register-verwaltungsdigitalisierung-2-0-auf-zielge/?t=38%3A38

Du hast sicher Recht, dass es sich um keine Kampagne von TikTok gegen die Lage handelt. Ich wollte nur meine Erfahrungen mit dem Aufruf teilen und mir auch den Frust etwas von der Seele schreiben.

Gruß, Johannes

4 „Gefällt mir“

Ah, das muss mir entgangen sein. Dann ist ja alles gut ^^ Ich ziehe den Einwand zurück.

Die Frage bleibt dabei, was die Alternativen wären. Letztlich ist das wohl auch ein Bereich, der massiv von Fortschritten in der KI-Technologie profitieren würde. Wir sind noch nicht an dem Punkt, an dem KIs eingesetzt werden, die tatsächlich erkennen können, ob es Hassreden oder Aufrufe zu Vergewaltigung geht - oder eben um Warnungen davor und den Kampf gegen Hassreden. Deshalb werden aktuell noch ganz primitive Wortfilter (also Blacklists von Wörtern) und andere simple Erkennungs-Algorithmen mit hoher Fehleranfälligkeit eingesetzt.

Ich glaube wirklich, dass das deutlich besser wird, sobald KI für solche Massenprozesse einsetzbar ist. Das das dann wieder andere Gefahren birgt (letztlich: KI entscheidet, was wie öffentlich diskutiert werden kann) wäre dann natürlich die nächste Diskussion.

Mit Orwell hat das dahingehend noch nichts zu tun, als dass es nicht der Wille von Staat oder Unternehmen ist, dass diese Dinge „zensiert“ werden, sondern eine Nebenfolge der Flut an Content und mangelnden Kontrollierbarkeit. Also eigentlich ist das Gegenteil der Fall: Orwell hätte sich wohl nie erträumen lassen, wie viel freie Meinungsäußerung jeder einzelne Bürger heute öffentlich tätigen kann. Aber die Tatsache, dass jeder Bürger nun sein eigener Chefredakteur ist führt eben auch dazu, dass Sachen öffentlich kommuniziert werden können, die offensichtlich nicht öffentlich kommuniziert werden sollten.

1 „Gefällt mir“

Der Eindruck entsteht natürlich durch eine Vielzahl gesellschaftlicher und politischer Entwicklungen, u.a. würde ich den allg. restriktiveren Umgang mit Sprache anführen oder auch das Narrativ, den Krieg gegen Russland jetzt umso erbitterter zu führen, um zu einem späteren Zeitpunkt Frieden zu haben. Das ist Krieg ist Frieden und Frieden ist Krieg, in leichter Abwandlung.

als aktuelles Bonbon, Mario Voigt
https://twitter.com/n3ll41/status/1783476032319709523

1 „Gefällt mir“

Aus der Sicht eines chinesischen Unternehmens könnte der Vorwurf Hassrede bei einem Betrag, der unterstellt, Maximilian Krah hätte einen chinesischen Spion beschäftigt, als legitim angesehen werden.
Vielleicht nicht der beste Beitrag um damit auf tiktok loszulegen.

2 „Gefällt mir“