Zentrum für politische Schönheit: AfD-Verbot

Nach der Aktion mit dem Flyerservice Hahn hat das Zentrum für politische Schönheit nochmals eine Aktion durchgeführt, Details hier: https://afd-verbot.de/ oder https://www.youtube.com/watch?v=DiT0pySmHco&t=3s

Das ZPS hat in mühsamer Kleinarbeit alle Äußerungen von AfD-Mitgliedern zusammengetragen und diese in die Kategorien

  • Freiheit & Individuum
  • Gewaltenteilung
  • Demokratiefeindlichkeit
  • Ausgrenzung
  • Holocaust
    eingeteilt. Sie haben in ZPS Manier auch die AfD Mitglieder selbst dazu gebracht belastende Informationen über sich selbst beizusteuern. Alles ist auf der Seite zusammengetragen und in E-Akten für jedes AfD-Mitglied abgelegt.

Abgesehen davon, dass ich die Aktion für sehr gelungen und extrem unterhaltsam halte, glaube ich auch, dass sie durchaus etwas bewirken kann. Diese Aufarbeitung zeigt alleine schon sehr deutlich wo die AfD steht und macht es dadurch Politikern schwerer sich gegen ein Verbortsverfahren zu stellen. Dazu ist sie aus meiner Sicht auch eine sehr gute Sammlung, die man für ein solches Verfahren verwenden könnte.

Mich würde dazu einmal Eure Einschätzung interessieren, gleichzeitig ist das Thema aus meiner Sicht auch so wichtig (und unterhaltsam), dass es für unsere Demokratie verbreitet werden sollte.

11 „Gefällt mir“

Danke für den Link. Ich habe viele der Zitate bereits mitbekommen und muss immer wieder den Kopf schütteln, dass solche offenen Gewaltandrohungen bisher keine grösseren Konsequenzen nach sich gezogen haben.

Wir reden hier immerhin von:

  • Frauen und Kinder erschiessen
  • Politische Gegner Exekutieren
  • offenem Nationalsozialismus
  • „SA gründen und aufräumen“

Nur um mal ein paar kleine Perlen zu nennen. Diese Aussagen haben für mich in einer demokratischen Partei in DE keinen Platz.

2 „Gefällt mir“

Erstmal eine kleine Ergänzung:
Bei Logbuch Netzpolitik gibt es quasi eine Sonderfolge nur zu dieser Aktion:

Dort erklärt Stefan Pelzer noch einmal sehr viele schöne Details zu der Aktion, absolut empfehlenswert und es zeigt auch, dass das ZPS beim Kampf gegen die AfD den Rechtsstaat bis an die Grenzen ausreizt, aber natürlich alles gewaltfrei usw. :slight_smile: .

Ansonsten gehört die AfD natürlich verboten.

3 „Gefällt mir“

Unterhaltsam ja und weitestgehend wohl auch von der Kunstfreiheit gedeckt. In meinen Augen hat die Aktion allerdings der Demokratie und dem Rechtsstaat mit dem (ungekennzeichneten) Deep-Fake einen Bärendienst erwiesen. (Es sei denn, es geht der Aktion insbesondere auch darum, Aufmerksamkeit für das Problem fehlender bzw. ausreichend scharfer Strafnormen bzgl. Deep-Fakes zu erzeugen.)

Es ist recht leicht als Fake zu erkennen. Die Gesichtsausdrücke wiederholen sich, die Lippen sind asynchron zur Sprache.
Aber die Reaktion der Bundesregierung zeigte das Dilemma.
Man behalte sich rechtliche Schritte vor, warne davor, solche Videos zu erstellen, sei aber noch am abwägen, ob eine Klage und die damit einhergehende Berichterstattung nicht erst recht der Aktion Aufmerksamkeit bescheren würde.
Noch fataler wäre, wenn das Video von der rechten Seite käme und professionell gemacht worden wäre. Man müsste die Bevölkerung davor warnen und würde sie damit erst auf das Video aufmerksam machen und die Klickraten zusätzlich erhöhen - was dazu führt, dass der Algorithmus es noch mehr an unbedarfte Zuschauer ausspielt.

2 „Gefällt mir“

So wie ich es verstanden habe, ging es darum. Im Podcast LNP, siehe Post von @Matder gibt es mehr Infos dazu.

Stefan Pelzer weist in diesem Zusammenhang darauf hin, dass nicht Deep-Fake Videos das Problem sind. Es gibt diese momentan nicht wirklich, da der Aufwand hierfür zu hoch ist. Die paar Sekunden Scholz waren richtig viel Arbeit und es überzeugt nicht wirklich. Mehr geht nicht, außer in Hollywood wo ganz andere Mittel zur Verfügung stehen.
Was es von rechts regelmäßig gibt, sind gefälschte Bilder. Aber diese sind kein Problem, denn es gibt genügend Leute, die einfach alles glauben was aus ihren Telegram-Quellen kommt. Die fehlende Medienkompetenz der breiten Bevölkerung ist hier das Hauptproblem. Diese fehlende Medienkompetenz kann man mit Gesetzen gegen Deepfakes nicht wirklich beheben.

2 „Gefällt mir“

In der NLP Sendung sagt Stefan Pelzer recht deutlich, dass die Stimm-Deepfakes zwar schon einigermaßen ordentlich arbeiten, aber Video-Deepfakes sind noch massiv in den Kinderschuhen.
Das ging so weit, dass das ZPS das Video bis kurz vor „Abgabe“ quasi nicht verwenden wollte, weil sie selbst mit der Qualität nicht einverstanden waren.

Und ich kann das absolut nachvollziehen. Um Deepfakes wird aktuell ein Riesen Aufriß gemacht, dabei sieht jeder, der kritisch auf diese Sachen schaut, relativ schnell, dass es sich um Fakes handelt.

Unser Problem ist nicht, dass Deepfakes die Leute wirklich überzeugen, sondern das Leute den Deepfakes, z.B. von fremdländisch aussehenden, aggressiven Männergruppen, einfach glauben wollen. Und dafür kannst du der Technik nicht die Schuld geben.

1 „Gefällt mir“

Sind eigentlich die Gutachten (bzw. Quellensammlungen) der Landesämter für Verfassungsschutz online auffindbar? Da sollte ja auch einiges drin stehen. Wäre toll, wenn man da Querverweise schaffen könnte.

Sorry, aber wenn der VS bis 2023 braucht, um auf den Trichter zu kommen, dass AfD-Landesverbände rechtsradikal sind, glaube ich kaum, dass in deren Berichten irgendetwas steht, was zivilgesellschaftliche Stellen nicht schon lange vorher gesammelt und dokumentiert haben.

1 „Gefällt mir“

Vor einem Jahr war das, was aus Midjourney, Dall-E, Stable Diffusion usw rausgefallen ist, in vielen Bereichen auch noch absolute Grütze. Da war jedem sofort klar, dass das ein fake sein muss, einfach weil mittden auf der hand ein sechster Finger zu finden war oder andere Kuriositäten.
Ein Jahr und etliche CPU- bzw. GPU-Stunden später sind die Modelle so viel besser geworden, das wird uns mit Videos auch noch bevorstehen. Dauert halt wegen der höheren Komplexität einfach etwas länger.

1 „Gefällt mir“

Klar, wenn man Präzedenzfälle will, in denen der Geheimdienst für die Öffentlichkeit völlig intransparente Entscheidungen trifft, und damit die Vorwürfe der politischen Einflussnahme und ungerechtfertigten politischen Verfolgung zumindest nicht entkräftet, dann ist der Zirkelschluss ein gutes Argument.

Wenn dann das LfV Sachsen unter einem AfD Innenminister die Grünen wegen Kontakten zur letzten Generation als extremistisch einstuft, dann geben wir uns bestimmt auch damit zufrieden, dass das in irgendwelchen internen Berichten so stehen soll.

Vorab: Ich erwarte, dass wir in diesem oder dem nächsten Jahrzehnt Deep-Fake-Technologien haben werden, bei denen es für einen Menschen nicht mehr möglich sein wird, ein Deep-Fake ohne Hilfsmittel zu erkennen. Vermutlich wird es dann Deep-Fake-Identifizierungssoftware geben. Aber erstens wird das wie bei heutigen Ad-Blockern dann zu einem Wettlauf zwischen den Softwares zur Erstellung bzw. zur Identifizierung von Deep-Fakes kommen (d.h. es werden immer auch Deep Fakes nicht erkannt) und zweitens hat man nur auf seinen eigenen Geräten die Möglichkeit, die Identifizierungssoftware zu nutzen (d.h. man sollte dann allen öffentlichen Bildschirmen und Lautsprechern mit erhöhtem Misstrauen begegnen).

Zur Gegenwart:

…und das genügt ja schon, um massiven Schaden anzurichten…

Was verstehen Sie unter kritisch anschauen? Ich behaupte, dass die meisten Menschen bereits ein heutiges Deep Fake in einer alltäglichen Situation (z.B. abends müde beim Tagesschau schauen) nicht als ein solches identifiziert würden. Und wer macht sich die Mühe, danach in die Mediathek zu gehen und nochmal kritisch nachzuschauen?

Das halte ich für naiv, insbesondere wenn die Technologie noch ein paar Jahre gereift ist.

Ich denke und hoffe, dass mit einer weiten Verbreitung von deep fakes auch die Letzten erkennen, dass sie den Bildern nicht trauen dürfen und endlich ihre Plausibilisierungsmaschinen anwerfen, so weit sie sie schon entwickelt haben. Aber wer das nicht hat, wird abgehängt. Deep fakes kannibalisieren sich selbst, denke ich.

Die Bildergläubigkeit ist/war ja schon in Zeiten ohne diese Tricks ein Problem. Wie leicht ist es, mit der Kamera genau die Bilder einzufangen, die die beabsichtigten Botschaften belegen, wenn ein Schwenk mit der Kamera genau das relativieren und also im „Wert“ mindern würde. Ein Bild ist immer ein Ausschnitt. Einem Bild, das mir vor die Augen gehalten wird, kann ich mich nicht entziehen, es transportiert ggf. eine Absicht. Wäre ich selbst in der Szene gewesen, hätte ich nur den Kopf drehen müssen, um wahrscheinlich einen ganz anderen Gesamteindruck zu gewinnen.

Deswegen schaue ich ganz selten „Tagesschau“, weil mich selbst das seriöseste Angebot von Fernsehen in DE enttäuscht mit der Bildauswahl - der ich misstraue.

2 „Gefällt mir“

Nehmen wir z. B. Donald Trump. Für welche Aussage braucht dieser ein Deep Fake Video? Was genau würden die Leute ihm dann glauben, wenn er ein Video vorlegt und sonst nicht? Dazu bedenke man, dass es auch jetzt schon echte Videos gibt, die einfach aus dem Zusammenhang gerissen werden. Zumindest bei Fotos ist das einfacher, als sich mit einer KI ein Bild zu erzeugen.
Das Hauptproblem ist längst da. Deep Fake Videos werden es vielleicht noch etwas kanalisieren. Chat GPT hat da aus meiner Sicht größeres Schadenspotential, da sich damit schnell und einfach irgendwelche Fake Texte erzeugen und in verschiedene Sprachen übersetzen lassen.

Ja, Trump hat vermeintlich schon jede denkbare Idiotie und Unwahrheit von sich gegeben. Ich hatte andere Personen im Blick. Zum Beispiel ein Deep Fake in dem Putin den sofortigen Einmarsch in Polen befiehlt. Oder ein Olaf Scholz, der den Verteidigungsfall ausruft.

Ja, andere Personen haben noch nicht „jede“ Idiotie gesagt. Worum es mir ging, war, dass die Idiotien von Trump geglaubt wurden. Da ist einer in diese Pizzeria gegangen und hat dort einen Amoklauf durchgeführt, weil er davon überzeugt war, dass im Keller Kinder gefangen gehalten werden mit denen ganz wilde Dinge angestellt werden. Dafür hat es kein Deep Fake Video oder KI gebraucht.
Anders gesagt ist das Problem nicht, dass KI jetzt so gut geworden ist, sondern dass ausreichend viele Menschen so dumm sind, dass sie einfach alles glauben, egal wie absurd das ist.

Meine Befürchtung ist, dass wir bald alle so „dumm“ sind, dass wir „nicht-absurde“ Behauptungen einfach so glauben.

Folgendes Szenario: Es ist der 8.10.2023, ein Tag nach dem Terrorangriff der Hamas auf Israel. Es taucht ein (hochqualitatives) Deep Fake von Ajatollah Chamenei auf, in dem erst stolz erklärt, dass der Iran der Drahtzieher der Terroranschläge ist.

Wie viele Mitbürger und Politiker hätten wohl so reagiert: „Hmm. Lasst uns erstmal besonnen prüfen, ob es ein Deep Dake ist. Und falls sich herausstellt, dass er es wirklich gesagt hat, dann lasst uns besonnen darüber diskutiere, warum er das gesagt hat und welche Konsequenzen wir daraus ableiten sollten.“? Und wie viele hätten stattdessen in den sozialen Medien oder am Stammtisch oder in den Vereinten Nationen ohne weitere Prüfung unverzügliche Maßnahmen gegen den Iran gefordert?

Die zweite Option ist ziemlich dumm. Aber ich behaupte, dass in Zukunft nahezu jeder bei irgendeinem Deep Fake so dumm reagieren würde (zumindest nochmal signifikant mehr, als bereits heute „so dumm sind, alles zu glauben“).

1 „Gefällt mir“