LdN 224 Demokratische Kontrolle von Social Media Plattformen ohne Zensur

Hallo Zusammen,

mit Interesse verfolge ich die Berichte, Kommentare und Hintergründe zu diesem Thema. Auch ich bin der Meinung staatliches Recht muss auch für diese Firmen gelten. Insbesondere bei der Marktmacht, die diese bereits erreicht haben. Wie das global zu lösen ist muss auch von den Plattformen mit überlegt werden, das kann man nicht einfach ignorieren.
Nun frage ich mich die ganze Zeit schon, ob es denn nicht auch eine Möglichkeit wäre, die Algorithmen als Hebel zu benutzen?
Ich glaube, dass die Funktion der Algorithmen, immer das extremste und krasseste, mit den meisten clicks und likes nach oben zu spülen einen erheblichen Anteil daran hat, extreme, rassistische und/ oder illegale Inhalte zu verteilen und damit zu stärken und den Glauben an Fake News zu unterstützen. Und damit verdienen diese Plattformen viel Geld.
Wenn diese Algorithmen kontrolliert würden (da gibt es bestimmt eine KI dafür:) würde dieser Mechanismus unterbrochen und auch ein zusätzlicher Gewinn durch „Feuer schüren“ entfallen.
Oder bin ich mit dieser Überlegung auf dem Holzweg? Ich freue mich auf fachkundige Rückmeldung, da lerne ich sicher wieder etwas:)

2 Like

Ich finde das Thema „Social Media“ sehr spannend und herausfordernd und bin schon der Meinung, dass die diversen Aspekte der Social Media Welt allgemein dramatisch zu wenig besprochen werden.

Es gibt dabei eine Vielzahl von Facetten und Farben und ich würde gerne gleich mit derjenigen beginnen, die mich am meisten ärgert: Es handelt sich um internationale Konzerne, die ihre Verantwortung auf allen möglichen Ebenen nicht oder nur unzureichend wahrhaben wollen. Ihre Verantwortung für die Nutzer (deren Gesundheit, Lebensqualität, Lebensumstände, Bildungs-/Informationszustand), Infrastruktur, Umwelt und so weiter wird immer wieder von sich gewiesen.

Ich mache mal ein Beispiel:

In Indien lesen Menschen in WhatsApp geteilte Fake News und bringen daraufhin in empfundener Gerechtigkeit Menschen um.

Die Nutzer von Social Media Plattformen sind signifikant anfälliger für Depressionen, die Kosten für die Folgen der Erkrankung zahlen Betroffene und/oder Steuerzahler und Beitragsleistende. Es wird kaum etwas getan um die Depressionen zu verhindern und Social Media zu einer sicheren und positiven Erfahrung insbesondere auch für jüngere Konsumenten zu machen. Hier eine Studie aus den USA zum Thema:

https://onlinelibrary.wiley.com/doi/abs/10.1002/da.22466

Steuern zahlen die Konzerne hingegen nicht besonders gerne. Nicht nur der Facebook-Konzern trickst mit Steuern auf legale (aber ethisch verwerfliche) Weise. Bei digitalen Tätigkeiten ohne konkretem „physischen“ Gegenwert fällt glaube ich die Nachvollziehbarkeit teilweise noch viel schwerer. Ein gutes (und vor allem einfaches) Erklärvideo dazu habe ich von Simplicissimus über die Sportartikelfirma Nike gefunden. Es ist zwar ein anderes Konstrukt als z. B. bei Facebook, zeigt aber die verrückten Finanzflüsse auch ohne BWL-Studium deutlich auf:


Die Frechheit, die mit diesen Methoden einhergeht, ist für mich fast nicht zu übertreffen.

Wir alle kennen ebendiese Probleme. Jetzt möchte ich aber auf den Kern meiner Antwort kommen:

Die Social Media Plattformen sind ultra-einflussreich, prägen Millionen von Menschen und schieben die Verantwortung für die von ihnen überhaupt erst entstandenen Probleme von sich. Es wird Zeit, dass wir Social Media als Gesellschaft als Thema wahr- und ernstnehmen und uns mit der Regulierung vertieft auseinandersetzen. Der Kern des Problem ist nämlich, dass man hierfür international eine Antwort finden muss (wurde m. E. auch in der Lage-Folge erwähnt). Man versucht mit nationalen Regeln internationale Konzerne für ihre Verantwortung einstehen zu lassen, das wird aber im Zweifelsfall schwierig bis unmöglich.

Ich möchte gerne einfach mal das Beispiel bringen mit absolut eindeutig rechtsextremen Foren bringen. Wir wissen, dass sich Menschen im Internet aufstacheln, dass sie sich schrittweise zu Extremisten verwandeln und dass sie immer tiefer in ihre Blase gesogen werden, je mehr sie in diese Richtung gehen. Wir kennen ja all diese Themen.

Manchmal ist es einfach schwierig den Zugang zu haben und rechtlich Handhabe gegen illegale Aktivitäten zu haben. Auch, wenn Straftatbestände erfüllt sind, kann im blödsten Fall eine deutsche Behörde nicht gegen ein Neonazi-Forum angehen, dass auf einem russischen Server stattfindet. Das gleiche Thema haben wir regelmässig bei Holocaust-Leugnern, Reichsbürgern und Nazi-Schwurblern, die dann halt schnell in die Schweiz fahren für ihre verfassungsfeindlichen Treffen. Das ist zwar nicht digital, aber halt genau ein Zeichen dafür, wie verrückt schwer es ist, nur mit nationalem Recht vorgehen zu können. Der Punkt bei Social Media ist, dass es sich halt im worst case nicht um 5000 Neonazis handelt, sondern um 500000, die ungestört und ungestraft ihre Grütze verteilen können.

Der nächste Link hat mich persönlich sehr nachdenklich gestimmt, denn die Szene scheint online bereits so gut vernetzt, dass es einfach möglich ist, Kongresse im Ausland zu organisieren, nur, damit die eigenen Aussagen nicht geahndet werden können.

Und genau da sind wir an dem Punkt, an dem ich mich frage, ob „Zensur“ von gewissen extremistischen oder eindeutig falsifizierbaren Inhalten nicht sogar ein Stück weit wünschenswert ist. Zudem kommen wir wohl nicht um die Tatsache herum, dass mittelfristig ein „Internetrecht“ auf internationaler Ebene benötigt wird. Bin gespannt auf die anderen Beiträge, ich würde hier gern noch viel tiefer in die Materie einsteigen.

Ein Doku-Tipp an dieser Stelle ist „Das Dilemma mit den Sozialen Medien“ auf Netflix.

1 Like

Hallo Justjaythings:
Zu Deiner Frage nach Meinungen zu dem Thema: Es gab schon einmal ein Kommentare in diesem Thread LdN223 Social-Media-Sperre von Trump - #6 von Hasenkoettel ein bisschen zu diskutiert.

Aber grundsätzlich stimme ich Dir zu. Es ist ist schon sinnvoll eine Art von Regulierung zu haben, aber - und das Beschreiben ja Du und Spider beide - es ist auch eine spannende Frage welche Regulierung, wenn verschiedene Gesetzgeber unterwegs sind.
@Spider Da hatte ich Deinen Lösungsvorschlag nicht ganz verstanden, vielleicht magst Du das nochmal erklären?
Du wolltest den „Timelinepräsentationsalgorithmus“ so modifizieren, dass er die nationale Regulierung der Timelinebetrachtenden Person in der Darstellung berücksichtigt?

Das ist bestimmt grundsätzlich möglich, dass ist ja im wesentlichen nur eine „wenn“ „Dann“ abfrage. Es bleibt aber natürlich das grundsätzliche Problem damit wie man diese Regulierung auch nur für einen Staat operationalisiert (hierzu verweise ich wieder auf die zur Zeit aktuelle Diskussion der europäischen Legislative zum Digital Services Act)

1 Like

Hallo @Hasenkoettel,
ja, wenn der so heißt: „Timelinepräsentationsalgorithmus“ dann meine ich zunächst ganz allgemein, dass es Regelungen geben sollte, die verhindern, dass der Algorithmus u.a. Gewalt und gewaltverherrlichende Inhalte immer wieder nach oben spült. Ich dachte dieser Weg sei einfacher, weil er im ersten Schritt die Inhalte nicht im Detail bewertet und damit weniger in die Meinungsfreiheit eingreift.
Ich hoffe der Digital Services Act ist ein Schritt in diese Richtung. Mich macht es verrückt zu sehen wie einige wenige Unternehmen uns verdummen. Man sieht in vielen Ländern und auch bei uns wohin das führt. Das Problem verstärkt sich auch dadurch, dass viele sich nur noch in den sozialen Medien informieren und gar nicht wissen wie leicht wir dort manipuliert werden nur um noch länger dort zu verweilen. Sieht man ja auch gut an der Sorglosigkeit mit dem Datenschutz (Cookie Consent).
Da werden Milliarden verdient, kaum Steuern bezahlt und sich der gesellschaftlichen Verantwortung entzogen, die PR wirksamen Spenden und Stiftungen mal ausgenommen.

Hallo Spider,

ok jetzt verstehe ich Dich etwas besser.
Ich glaube es gibt in der Diskussion drei Verschiedene Aspekte, bei denen es sinnvoll sein kann sie zu trennen:
a) Die Forderung, dass sich Plattformen darum kümmern, dass die bei ihr verbreiteten Inhalte den gesetzlichen Vorgaben der Staaten in denen sie angezeigt werden entsprechen (Beleidigung, Drohung, Aufruf zu Gewalt, verkauf von Drogen, etc.).
b) Die Forderung, dass Plattformen durch ihre Nutzungsbedingung und Moderation nicht übermäßig die Möglichkeit der User:innen zur öffentlichen Meinungsäußerung beschneiden.
c) Die Forderung, dass die verwendeten Algorithmen zur Priorisierung von Inhalten, die ja optimiert sind die Aufmerksamkeit der User:innen möglichst lange zu fesseln, geändert werden, um die Verbreitung von „schädlichen“ Inhalten einzudämmen.

Ein großes Diskussion - ja auch in der Lage angesprochen - ist das a) und b) in einer Konkurrenz zu einander stehen (wenn man a) mit hohen Strafen belegt, werden die Plattformen tendenziell mit (automatisierten) Filtern dagegen vorgehen, was Schaden bei b) hervorruft). Hier versucht der DSA ein Gleichgewicht zu fassen (aus dem Gedächtnis zusammengefasst), in dem er dem Gebot gewisse Inhalte nicht anzuzeigen auch ein Gebot beinhaltet, dass Nutzer:innen deren Inhalte gelöscht / nicht zugelassen werden eine adäquate Begründung und eine Widerspruchsmöglichkeit bekommen.

M.w. wird vom DSA das Thema c) nicht so wirklich angegangen. Da gibt es schon Menschen und NGOs und Politiker>innen die das diskutieren, aber das braucht glaube ich noch etwas. Wenn Du Dich dafuer interessierst und nicht eh schon knietief im Thema bist kann ich unbedingt das relativ aktuelle populaerwissenschaftliche Buch von Katharina Zweig Ein Algorithmus hat kein Taktgefuehl empfehlen. Das fasst die Debatte sehr pointiert und zugaenglich zusammen, finde ich .

Kleine Anmerkung: Der „Nachteil“ bei einer Regulierung á la a) ist natürlich, dass das dann auch in Nicht-Rechtsstaaten etc. kommen wird, wenn solche Regelungen in EU/USA operationalisiert sind. Das ist aber m.E. kein gutes Argument dagegen.

Hallo @Hasenkoettel,

ja stimmt, wahrscheinlich ist es übersichtlicher die Themenbereiche zu trennen und weil a) und b) so komplex sind und miteinander verwoben, dachte ich c) könnte ein einfacherer Weg sein. Danke für den Tipp, ich erinnere mich daran einen Artikel von Frau Zweig zu dem Thema gelesen zu haben.
Ich lese dazu gerade noch „Das Experiment sind wir“ von Christian Stöcker
Ich werde das auf jeden Fall weiter verfolgen und unterstützen, wenn es aufgegriffen wird.

Hallo zusammen,

vielleicht ein Idee aus der Wirtschaft, wie zum einen die Plattformen sich um die Moderation und deren Kosten kümmern und zum anderen die Spielregeln durch die Gesellschaft und den Gesetzgeber festgesetzt werden: Die Zertifizierung.

Ein mehr oder weniger öffentliches Normungsgremium hat Spielregeln festgelegt, die ein Unternehmen einhalten muss, damit dieses die Zertifizierung erhält. Die Unternehmen überprüfen sich selber und werden durch akkreditierte Zertifizierer überprüft, damit das Zertifikat vergeben wird. Die Zertifizierer werden wiederum durch andere geprüft.

Jetzt kann der Gesetzgeber vorschreiben, dass eine Zertifizierung notwendig ist (ähnlich wie bei Prüfungen durch den TÜV) oder er kann Anreize setzen, damit Unternehmen sich zertifizieren lassen (wie beim Energiemanagementsystem, was Voraussetzung der EEG-Befreiung ist).

So bleibt das Doing bei den Firmen selber, aber der Rahmen ist transparent und kann unabhängig überprüft werden.

Stimmt auch kein schlechter Ansatz auch wenn „Selbstkontrolle“ immer auch einen komischen Beigeschmack hat und ich bei vielen Zertifizierungen auch oft das Gefühl habe, es geht in erster Linie darum, die Verantwortung in die nächste Stufe zu verlagern (zBsp. ISO, Lieferketten, Fair Trade). Anderseits schaut so zumindest alle paar Jahre mal jemand drauf.

Etwas anderes Thema, welches aber auch irgendwie zum großen Ganzen gehört ist der offene Brief von Mathias Döpfner, Welt von heute: Mathias Döpfner: Totale Transparenz endet immer totalitär - WELT

Die Lieferketten, Fair Trade etc. Zertifizierungen sind meistens aus der Industrie selber heraus, die sehe ich auch Kritisch. Anders sehe ich das bei den ISOs und besonders bei „TÜV-Prüfungen“. Technische Regel und ISO/DIN-Normen, die durch eine kreditierte Stelle (TÜV, DEKRA, etc.) geprüft werden, funktioniert und hat keinen komischen Beigeschmack. Bei KFZs, Anlagenbau und Infrastruktur hört man aus Europa jedenfalls keine Klagen. Aus anderen Ländern, wo ggf. die Korruption auch ein staatliches Handeln in Frage stellt, kommen natürlich auch andere Nachrichten (siehe Staudamm in Brasilien)