LdN210 Thema Facebook und Soziale Medien

Ich persönlich verstehe zwar Ulf’s Wunsch nach legetimen Runden, welche die Entscheidung über Beiträge, Kommentare etc. treffen(wie genannt, das Beispiel eines Äquivalent des Presserates für Soziale Medien). Ich halte dies aber für etwas was aus mehreren Gründen nicht umsetzbar ist. 1. Die schiere Masse an Beiträge, Kommentaren etc. auf jeder Internetplattform egal ob Facebook, Instagram, Twitter etc. lässt sich nicht mit den 20, 30 großen Zeitungen vergleichen. Deswegen ist es so gut wie unmöglich soetwas wie einen „Presserat“ für Soziale Medien zu umzusetzen.
2. Die Schnelligkeit des Internets ist genauso ein Problem. Jede Stunde in denen ein Post mit z.B Fake News online ist, verschlimmert sich die Wirkung des Post.
Die menschlichen externen Prüfer sind schlicht weg zu langsam. Bis sie handeln, ist der Schaden schon lange angerichtet.

Stimme grundsätzlich zu, dass es schwierig ist, die schiere Menge an Beiträgen auf Online-Plattformen zu übersehen. Aber es gibt ja bereits Regeln für illegale Inhalte (z.B. terroristische Inhalte, sexueller Missbrauch, Hassrede), die ja dank dem Meldesystem (Notice-and-Action) gut umgesetzt werden.

Was denke ich problematisch ist - so verstehe ich Ulf und Philip -, dass darüber hinaus die Plattformen ihre eigenen Moderationsregeln festlegen können, womit sie bestimmen, was als schädlich gilt und was nicht. Die Umsetzung kann da ja genauso über ein Meldesystem funktionieren wie bei illegalen Inhalten. Das Problem ist, dass die Art des Festlegung nicht besonders demokratisch ist - das entscheiden die Plattformen einfach selber.

Auf der anderen Seite frage ich mich, ob es nicht bestimmte Grenzen gibt, was Plattformen im Rahmen des Legalen zulassen oder verbieten können. Weiß das vielleicht jemand?

Ebenso wichtig wie die Regeln über die Moderation von Inhalten sind ja die Algorithmen, die bestimmen, welche Reichweite ein Beitrag hat. Die problematischen Auswirkungen sind ja bekannt (z.B. dass rechtsextreme Inhalte auf YouTube eine größere Reichweite haben). Hier wäre eine stärkere demokratische Kontrolle meiner Ansicht genauso dringend, wenn nicht sogar wichtiger.

@itstobi diese zwei Probleme sehe ich auch. Aber noch viel wichtiger: Die Gesetze welches Landes solle denn die Grundlage für (beispielsweise) Facebooks Regeln sein? Holocaustleugnung ist ein gutes Beispiel: Legality of Holocaust denial - Wikipedia

Sich einfach nach den Gesetzen des Landes zu richten, in dem der/die Autor.in eines Landes (oder der/die Rezipient.in) lebt geht auch nicht. Eine schöne Eigenschaft der Platformen ist ja grade, dass sie - z.B. in der Türkei oder in Ägypten (in China eingeschränkt: Great Firewall) - ihre Nutzer.innen nicht an lokal geltendes Recht binden.

1 „Gefällt mir“

Ich würde bei diesem Thema eher die Meinung vertreten, dass Facebook etc. sich tatsächlich auf die Anwendung geltenden Rechts beschränken müssen und keine zusätzlichen guidelines erheben dürfen, also als reine Plattformen agieren. Zusätzlich würde ich die Anwendung von Feed-Algorithmen in ihrer heutigen Form verbieten. Diese tragen nämlich tatsächlich zu einer vermehrten Polarisierung und Radikalisierung Weniger bei. Entweder man folgt jemandem, dann sieht man alles was derjenige postet, oder man folgt nicht und sieht dementsprechend nichts. Wir sollten soziale Netzwerke als Werkzeuge verstehen, die Kommunikation zwischen Menschen ermöglichen, sie aber nicht regulieren, einschränken oder auch nur fact-checken, mit Ausnahme natürlich von strafrechtlich relevanten Inhalten. Ich finde es auch falsch, Verschwörungstheorien als eine Art Virus zu sehen, mit dem sich Leute infizieren und man sie deswegen vor dem Kontakt damit schützen muss. Das spielt den idioten doch erst recht in die Hände und verstärkt ihre widerstandsmentalität. Ich denke, dass ein paar idioten die sich online Verschwörungstheorien hingeben für unsere Gesellschaft weniger gefährlich sind, als irgendwelche Moralräte oder wahrheitsausschüsse, selbst nicht-staatliche, die die direkte zwischenmenschliche Kommunikation (!!!) bewerten, einordnen und im Zweifel zensieren sollen. Der Presserat ist hier mMn ein unpassendes Beispiel, weil es dabei um Institutionen geht, die sich selbst einen moralischen Kompass für ihre gewerblichen Veröffentlichungen geben. Im privaten sind die Journalisten aber ja nicht dem presserat unterworfen. Die institutionelle bewertung und Regulierung von direkter und privater zwischenmenschlicher Kommunikation über das Strafrecht hinaus ist für mich ein absolutes no-Go, egal ob staatlich organisiert oder nicht. In meinen Augen ist das ein schönes Beispiel, wie mit den besten Ambitionen die gefährlichsten Dystopien beschworen werden.

Ich sehe auch keine Möglichkeit jeden Beitrag auf den jeweiligen Wahrheitsgehalt zu untersuchen, sei es durch die Plattformen, einen Rat oder den Gesetzgeber.
Die Plattformen müssen sich allerdings an Recht und Gesetz halten und zwar auch an Recht und Gesetz des jeweiligen Landes. Da sehe ich auch kein Problem. Dies funktioniert ja auch wenn man einen Service in einem Land anbieten möchte, in dem es spezielle Regelungen gibt wie z.B. COPPA in den USA.

Zur Einhaltung von Recht und Gesetz finde ich das Meldegesetz eine gute Idee.
Jede weitergehende Kontrolle oder Einschränkung durch eine Instanz, die nicht der jeweilige Konsument ist, steht aus meiner Sicht auf verlorenem Posten und das ist auch gut so.

Letztendlich möchte ich entscheiden welche Inhalte mir angezeigt werden und diese Entscheidung treffe ich durch die Leute mit denen ich befreundet bin oder denen ich folge.
Bei Twitter würde ich mir einen Knopf wünschen den ich drücken kann wenn ich einen Tweet für gut und richtig halte statt Fav, der wirklich überhaupt keine Bedeutung hat bzw. von jeder Person anders benutzt wird.

Kleine Tipps zum Thema:
MaiLab zu Meinungsfreiheit (Holocaust-Leugnung, Verschwörungstheorien) Meinungsfreiheit am Beispiel Wendler - YouTube

Das Dilemma mit den Social Media (Algorithmen etc), Netflix-Doku

1 „Gefällt mir“

Ich wollte eine super interessante Podcast episode über die absurde Regelungen von Facebook teilen. Radiolab ist eine Peabody Award winning podcast. Sie haben einmal gesagt,daß es manchmal vorkommt, daß sie zwei Jahre lang über eine einzige Episode recherchieren! Diese Folge ist leider ziemlich deprimierend, aber es lohnt sich das ganze zu hören. Hier lernen wir wie alles Schritt für Schritt außer Kontrolle geraten ist:

Absolut Niko! Wir haben es hinsichtlich der Sozialen Medien mit internationalen Institutionen zu tun, die auf nationaler Ebene eine Art kommunikativer Infrastruktur bereitstellen. Die Gesetzeslage in Myanmar oder in Russland ist eine andere als in Deutschland. Wo wir in Deutschland noch guten Gewissens nach Gesetzeskonformität rufen können, sieht das in Autokratien oder Diktaturen doch gleich ganz anders aus. Ich fürchte Ulf hatte zu sehr die „deutsche“ Richterbrille auf. (was kein Vorwurf sein soll, jeder hat Brillen auf)

1 „Gefällt mir“

Hallo Zusammen,

Ich denke, dass es sich hier um ein sehr komplexes Thema handelt und eventuell, verschiedene Ebenen vermischt werden.

Rechtslage:
Zunächst ist die Frage welcher Rechtslage berechtigt. Ein Anbieter dessen Dienst für den amerikanischen Markt ist kann nicht jede Rechtslage der Welt abdecken. Facebook hat natürlich auch deutsche Zweigstellen so dass dies hier unproblematisch sein sollte. (NetzDG gibt es ja auch noch). Dennoch bereitet dies auf globaler Ebene Probleme, möchte man hier zum Beispiel die türkische, nordkoreanische oder thailändische Präsidenten „Beleidigung“ mit abbilden? Rechtswidrige Inhalte werden nach meiner Erfahrung relativ zeitnah entfernt.

Strafrecht versus Community Regeln
Obwohl in der Folge auf das digitale Hausrecht eingegangen wird, erschliesst sich mir nicht warum dieses für große Netzwerke nicht gelten soll für kleinere aber schon. I’m analogen Leben gilt dies doch auch unabhängig von der große der Örtlichkeit. Des Weiteren sind die „Hausregeln“ on top zu den gesetzlichen Regelungen.

Algorithmen
Diese sind völlig losgelöst von der Frage der Rechtmäßigkeit der Inhalte. Ich stimme hier zu dass gegen die Echo-chambers und Blasen gearbeitet werden sollte, aber dies ist keine Frage des Hausrechts oder der Rechtslage.

2 „Gefällt mir“

Wie oben schon von einem Kommentator erwähnt, tue auch ich mir wahnsinnig schwer mir vorzustellen, wie die Orientierung nach „geltendem Recht“ realisiert werden soll.

Nachdem die Plattformen international genutzt werden können und dabei nicht nur deutsches oder amerikanisches oder gar westlich demokratisches Recht in den jeweiligen Nutzungsländern gilt, ist das ein schier unmöglich erscheinendes Unterfangen.

Bewertet man das Thema Holocaust in arabischen Ländern genau so wie in Deutschland?
Ist öffentliche Kritik an einer Regierung bei uns wirklich Meinungsäußerung, ist sie in anderen Ländern möglicherweise Hochverrat…

Orientiert man sich am Land des Autor’s? Und das obwohl die Social Media Plattform gehostet wird in den USA? Wieso sollte dann z.B. französisches Recht gelten?

Selbst wenn sich Facebook und Twitter auf das US-Recht stützen würden gäbe es sicherlich genug Beispiele, wo sich andere Nationen am US-Recht stoßen würden.

Ist für mich wirklich schwierig.

Und was sagst du zu Nikos Einwand, dass das geltende Recht nicht so leicht zu bestimmen ist? Was ist denn zu machen, wenn sich der vermeintlich Beleidigende, der Beleidigte und der Server in drei unterschiedlichen Staaten befinden? Alleine die Unterscheide in der Auslegung der Meinungsfreiheit zwischen den USA und Deutschland sind ja schon gewaltig, in nicht-westlichen Nationen wird sie noch unterschiedlicher verstanden werden. Und ein ‚race to the top‘ hin zu den jeweils strengsten Regeln kann man sich ja kaum wünschen…

Ich empfehle sehr das folgende Gespräch zum Umgang der sozialen Medien mit der NY-Post Story:

" In the eyes of many commentators, this looked like a continuation of Giuliani’s 2019 efforts to smear Joe Biden by claiming falsely that, while vice president, Biden had intervened to protect a Ukrainian company for which Hunter was working from investigation by Ukrainian law enforcement. That didn’t add up then, and it doesn’t now—the elder Biden’s work in Ukraine was aimed at combating corruption, not enabling it. But nevertheless, Trump and other Republicans are seizing on the Post’s stories—and complaining about efforts by social media companies to limit distribution of the stories on their platforms.

To get some perspective on what’s been going on, Quinta Jurecic spoke with Thomas Rid, a Professor of Strategic Studies at Johns Hopkins University’s School of Advanced International Studies and the author of the book “Active Measures,” and Evelyn Douek, cohost of Lawfare ’s Arbiters of Truth podcast series on disinformation and a lecturer at Harvard Law School."

1 „Gefällt mir“

Nur gibt es in vielen Ländern unterschiedliches „Recht“. Welches gilt denn? Das des Lesenden, des Schreibenden, oder von Facebook?

Ich glaube man muss klar trennen zwischen zwei Problemen in sozialen Medien:

  1. Das Veröffentlichen von Falschinformationen und strafrechtlich relevanten Inhalten
  2. Die Monopolstellung der Plattformen und die Optimierung der Auswahl der Inhalte die ein Nutzer sieht hin zu „Engagement“

Zu 1.: Ich denke nicht, dass man Facebook/Twitter/etc. realistisch für alles verantwortlich machen kann, was auf ihrer Plattform geschrieben wird. Sie sind ja gerade nicht Publisher, die die Gelegenheit haben alles zu bewerten was hochgeladen wird, bevor es veröffentlicht wird. Mal als Größenordnung: Jede Sekunde werden auf Youtube ca 10 Stunden Video hochgeladen. Dem manuell Herr werden zu wollen, ist aussichtslos, so dass zwingend Algorithmen zum Einsatz kommen müssen. Diese sind aber bekanntlich überfordert mit menschlicher Komplexität, und selbst wenn sie es nicht wären, ist die Wahrscheinlichkeit, dass ihre Einführung den gewünschten Effekt hätte, eher gering. Wem das nicht einleuchtet, sei dieser Vortrag von Tom Scott vor der Royal Society empfohlen (englisch): There is No Algorithm for Truth - with Tom Scott - YouTube . Für strafrechtlich relevante Inhalte kann man sich ein Meldesystem vorstellen, zusammen mit Gesetzen, die dann auch auf die Accounts und Posts durchgreifen können, wie das ja in der Lage auch schon mehrfach vorgeschlagen wurde.

Zu 2. Wenn man die Monopolstellung der Plattform dadurch zu schwächen versucht, dass man sie in kleinere, aber identische Teile zerbricht, dann hat man am Ende nichts erreicht. Die einzelnen Teile unterliegen immer noch denselben Marktkräften, und würden sich über die Zeit nur wieder konsolidieren. Hierzu würde ich eine Idee vorbringen: Es sollte doch möglich sein, das Zerbrechen der Plattform anders zu gestalten. Zum Beispiel so, dass man die Plattform verpflichtet, die API mit der ihre Algorithmen auf ihre Datenbasis zugreifen, und mit der sie einstellen was eine Nutzerin sieht und was nicht, offenzulegen. Dann kann der/diejenige auswählen, welchen Algorithmus er/sie für das Erstellen des Newsfeeds verwenden will. Optionen wären z.B. den nativen Algorithmus der Plattform zu nehmen (kostenlos, aber werbeorientiert), oder einen von Drittanbieter zu nehmen (mglws. mit Kosten verbunden, aber dafür anders ausgerichtet). Es könnte Wettbewerb geben zwischen den einzelnen Algorithmen, die Anbieter könnten jeweils darlegen, worauf der Algorithmus abzielt, bzw. welche Ziele das „Anlernen“ des Algorithmus verfolgt hat, etc…
Ich sehe das als analog zur Konkurrenz auf dem Strommarkt oder Telefonanbietern. Da wird ja auch nicht einfach die Customerbase aufgesplittet, und jeder besitzt dann einen Teil des Netzwerks. Das Netzwerk wird als gegeben hingenommen, um den Netzwerkeffekt nicht zu gefährden, und dann wird das Netzwerk geöffnet, und Spielregeln für Konkurrenz festgelegt. So könnte das denke ich auch hier funktionieren.

1 „Gefällt mir“

Zu dem Thema „welches recht wird denn angewandt“ habe ich zwei Gedanken:

  1. Bei Facebook und Instagram sind die meisten Accounts mit realen Menschen in Verbindung zu bringen. Wenn ich also einen strafrechtlich relevanten Post verfasse, kann mich jemand dafür anzeigen und ich würde entsprechend zur Rechenschaft gezogen werden. In meiner Vorstellung könnte das Gericht dann im Zweifel auch anordnen, dass zB Facebook meinen Post löschen muss, zB weil er den straftatbestand der volksverhetzung oÄ erfüllt. Für mich sind die Plattformen nur die Werkzeuge, die wir zur Kommunikation nutzen. Strafbar macht sich am Ende immernoch der einzelne.

  2. Das in 1. geschilderte Konzept kommt natürlich bei anonym geposteten Inhalten an seine Grenzen. Wenn eine evtl. strafbarer Post niemandem zugeordnet werden kann, bzw. auch niemand ermittelt werden kann, dann bleibt er halt bestehen. Wird es weiterhin Hass und hetze im Internet geben? Ja, auf jeden Fall. Allerdings ist das mMn das geringere Übel.

Auch ich fand die Diskussion die sich zwischen euch entwickelt hat sehr interessant und habe mich sehr über die Berichterstattung gefreut.

Kurzum würde auch ich resümieren, dass alles strafrechtlich Relevante in den Netzwerken unterbunden bzw. nach Meldung entfernt werden muss.

Ethische Selbstverpflichtung (vgl. Presserat) zeigen die grundsätzlichen Werte des Unternehmens, können aber bei der Masse nicht vollumfänglich geprüft und schon gar nicht staatlich gefordert werden. Hier zeigt sich das Dilemma der Plattformen: Einerseits möchte man keine Fakenews verbreiten; Andererseits ist der Hunter-Biden-Bericht dann doch irgendwie Journalismus - Und dann ist da noch der immer mitschwingende Zensurvorwurf…

In meinen Augen ist hier nur die Selbstregulation über die User-Rückmeldungen (Beitrag melden als Hass, Fakenews, Kommentare mit Gegenquellen etc.) möglich.
Klar ist dieser auch fehleranfällig (Bots, Bildung von Interessensgruppen…) würde jedoch dem von Ulf geforderten demokratischen Prozess und der damit einhergehenden konsolidierten Willensbildung aus meiner Sicht am nächsten kommen.

Ich fand es toll, dass das Stichwort „Innovation“ in dem Zusammenhang gefallen ist. Ich beschäftige mich hauptberuflich mit dem Thema „Digitale Ethik“ und „Corporate Digital Responsibility“. Es gibt einige Initiativen aus der Gesellschaft heraus (Berufsverbände, Stiftungen, Non-Profits), die in den letzten 3-5 Jahren Leitlinien zum verantwortungsvollen Umgang mit Daten und Algorithmen veröffentlicht haben. Unternehmen ziehen hier langsam nach. Allerdings stellt sich jetzt als nächstes die Frage der Operationalisierung dieser Ethik-Leitlinien im Digitalen und der Organisation (denn ja, es braucht rechtliche und technische Anpassungen - aber vor allem brauchen wir ein Bewusstsein bei den Menschen dahinter) - und da stehen wir noch ganz am Anfang. Wir arbeiten gerade an Ansätzen, wie man digital-ethische Risiken identifiziert, analysiert und in Management-Entscheidungen einfliessen lässt.

Spannend ist, dass bei diesem Thema ganz interdisziplinär gedacht wird. Vor allem werden sich Strukturen aus dem Gesundheitswesen angeschaut, denn dort ist Ethik immanent. Daher sind Kliniken, Ärzte, Pharmaunternehmen, etc. schon lange gezwungen, ethische Überlegungen umzusetzen. Die Wissenschaft der Bio- und Medizinethik ist daher auch schon verhältnismäßig alt.

Wir veröffentlichen in Kürze eine Studie zum aktuellen Stand von digital-ethischen Leitlinien in Europa - hier der Link zur Executive Summary (falls von Interesse): https://www.transforming-healthcare.com/wp-content/uploads/2020/06/idigit2020Europaweite_Leitlinien_zur_digitalen_Ethik_im_Vergleich_executive_summary.pdf

Falls ihr das Thema in der Lage nochmal aufnehmt, dann stelle ich gerne den Kontakt zu unserer Gründerin (Dr. Sarah J. Becker) her. Sie ist da eine kompetente Gesprächspartnerin.

Ich glaube, in dieser Frage ist Ulfs Blick doch einmal durch eine déformation professionelle verengt: Ich denke, überhaupt nicht, dass die Plattformen nichts sperren sollten, was nicht explizit verboten ist (hoffentlich nicht zu viele Verneinungen in diesem Satz). Man muss die Frage nur andersherum formulieren „was muss die Plattform alles veröffentlichen?“, habe ich ein Recht, dass mein Beitrag veröffentlicht wird? Monopol (das in der Tat bekämpft gehört, zB durch die Verpflichtung zu offenen APIs) hin oder her, das kann es ja wohl nicht sein. Das wäre analog zu einem Recht, dass mein unverlangt eingesandtes Manuskript in der BILD, der Süddeutschen und der Neuen Juristischen Wochenzeitung veröffentlich werden muss, solange es nur nicht rechtswidrig ist. Das Ergebnis wäre doch fürchterlich! In abgeschwächter Form spürt das doch schon der öffentlich-rechtliche Rundfunk: Hier lesen die Rechten aus dem Rundfunk-Staatsvertrag heraus, dass sie auch mit ihren verschwurbselsten Ansichten angemessen dargestellt werden müssen. Nein, eine redaktionelle Auswahl darf nicht verboten werden.

Diese Woche hat das Europäische Parlament übrigens einen Bericht zu der Frage verabschiedet, wie Plattformen in Zukunft mit illegalen Inhalten umgehen sollen und haftbar gemacht werden können. Eine Kernidee ist, dass (1) personalisierte Werbung verboten werden soll, weil diese dafür sorge, dass aufmerksamkeitserheischender Content bevorzugt wird. Das fördert Inhalte, die stärkere Emotionen hervorrufen, wie eben z.B. rechtsextreme Inhalte. Außerdem soll (2) rechtlich geklärt werden, wie Plattformen mit illegalen Inhalten umgehen sollen. Was haltet Ihr von den Vorschlägen?

Hier ist ein Bericht aus der SZ dazu:

Ich habe vor 4 Monaten ein interessantes Interview mit Marshall van Alstyne gehört. Er spricht über das Problem mit Fake News auf sozialen Medien. Ich finde die Idee ganz charmant, den Markt bzw. die Brieftaschen von einzelnen Akteuren regeln zu lassen, dass keine Falschmeldungen verbreitet werden können.
Ich versuche das Prinzip mal kurz darzustellen, am besten hört ihr euch aber die Podcastepisode an ([Wall Street Weekly – Podcast mit Sophie Schimansky] Der Markt der Wahrheit - Lügende Politiker zur Kasse, bitte! #wallStreetWeeklyPodcastMitSophieSchimansky
Der Markt der Wahrheit - Lügende Politiker zur Kasse, bitte! • Wall Street Weekly – Podcast mit - Podcast Addict)

Das Prinzip:

A gibt bei einer Plattform einen Post auf. Bei reichweitenstarken Posts wird eine Art „Pfand“ hinterlegt für das Einstellen.
B liest diesen Post und befindet, dass der Post nicht der Wahrheit entspricht. Daraufhin wendet sich B an die entsprechende Plattform.
Die Plattform leitet den Post an ein entsprechendes Prüfgremium weiter, das nicht von der Plattform gestellt ist sondern für mehrere Plaffromen zuständig ist. Hier wird nach bestimmten journalistischen/wissenschaftlichen Regeln der Post geprüft.
Wenn der Post keine Fake News beinhaltet bezahlt B die Kosten für die Prüfung der Wahrheit. Der Pfand wird an A zurückgezahlt und keine zusätzlichen Kosten entstehen für A.
Sollte der Post jedoch falsch gewesen sein wird das Pfand einbehalten und das erneute Posten zu diesem Thema kostet für A exponentiell mehr Geld. Somit würden auch tiefe Brieftaschen (z.B. Ölkonzerne beim Thema Klimawandel) schnell ausgeschöpft sein. Außerdem muss A die Kosten für die Prüfung übernehmen. Der Post wird anschließend gelöscht oder entsprechend markiert.