LdN 432: Whatsapp ab 16 / Korrektur

Im Podcast wurde durch eine Sprachnachricht angegeben, dass Whatsapp ab 16 sei. Das ist faktisch falsch. Die Freigabe ist durch die AGBs von Meta ab 13.

Ich fand den Hinweis zum Schluss, dass die Konzene mit in der Verantwortung sind sehr sinnvoll, allerdings ist ja gerade das junge Publikum für die sozialen Netzwerke die Nutzerschaft von morgen und hier gilt wie üblich „hol sie dir, wenn sie jung sind!“.

Ich hätte mir hier glaube ich gewünscht, dass hier noch mal drauf hingewiesen wurde, dass die Studienlage zu sozialen Netzwerken sehr eindeutig gg. die Nutzung durch Kinder ist und hier Mobiles ja das Hauptzugangsmittel sind. Und eine Begrenzung des Alters in der EU idR ja nur durch Datenschutzgesetze begründet ist, und hier Jugendschutz kaum abgebildet wird.

Vielen Dank aber natürlich dennoch für die breite und differenzierte Darstellung des Themas,

LG Falk

1 „Gefällt mir“

Ich erinnere mich noch an Zeiten in den 90ern, in denen die BPJS/BPJM alles an Medien recht viel indiziert hat. Damals hat man noch die Jugend geschützt. Findet das heute überhaupt noch statt?

Sorry, aber als jemand, der 1982 geboren wurde und diese Zeit des „Schutzes“ aktiv miterlebt hat, kann ich nur sagen: Das war kein Schutz, das war Bevormundung. Das Einzige, was da „geschützt“ wurde, war das konservative Weltbild der selbsternannten Jugendschützer.

In der Praxis war das, was die BPJS (später BPJM, heute BzKJ) getan hat, stets kontraproduktiv. Wo hat sich in den 1990ern der Jugendliche informiert, was der „richtig heiße Scheiß“ ist? Richtig, er hat auf den Index geschaut… Gerade im Bereich der Computerspiele konnte man das super beobachten - die brutalsten Spiele ihrer Zeit (z.B. Moonstone auf dem Amiga, Wolfenstein 3D auf dem PC) waren stets die ersten, die auf dem Schulhof getauscht wurden. Bei Filmen kann man das auch schön beobachten, Klassiker wie Braindead oder Bad Taste standen damals bei jedem Jugendlichen, der auch nur entferntes Interesse an derartigem hatte, ganz oben auf der Watch-List (und waren überall im Freundeskreis erhältlich…).

Warum das heute nicht mehr so stark verfolgt wird, ist relativ einfach zu erklären:
Die Standards, vor was die Jugend „geschützt“ werden müsse, haben sich immer weiter der Realität angepasst. Die ersten von der BPJS indizierten (also tatsächlich verbotenen!) Schriften waren übrigens in den 1950ern Comics, weil sie „nervenaufreibend“ seien und „die Kinder in eine Welt voller phantasie und Lügen“ reißen würden (oh wie böse!). Später wurde dann alles verboten, was Blut gezeigt hat. Mit Grauen erinnere ich mich an die deutsche Version von Half Life, in der das Blut der Soldaten schwarz gefärbt wurde („Das sind keine Menschen, das sind Roboter, das ist kein Blut, das ist Öl!“). Was zur Hölle hat das mit Jugendschutz zu tun? Heute sieht man das - zum Glück! - entspannter, daher wird weniger zensiert und vor allem weniger vollständig verboten. Und was hat die Zensur damals gebracht? Die Spiele waren in aller Munde. Als „Doom“ indiziert wurde, haben die Computermagazine sich darüber lustig gemacht und nur über ein fiktives Spiel namens „Bloom“ berichtet - jeder wusste aber, was gemeint war. Nichts hat der Doom-Reihe in Deutschland stärker geholfen, bekannt zu werden, als die Indizierung.

Dazu kommt, dass eine Indizierung im Zeitalter des Internets noch offensichtlicher unsinnig ist. Webseiten wie Schnittberichte.com machen eine Live-Berichterstattung über jede Indizierung oder Aufhebung der Indizierung, wodurch jede Indizierung noch mehr zu Werbung für das Produkt wird. Und die Bezugsquellen von Spielen und Filmen sind weitestgehend international und entziehen sich damit einer Regulierung, selbst bei nicht-digitalen Inhalten ist durch den europäischen Binnenmarkt kein Verkaufsverbot für verbotene/beschlagnahmte Medien mehr sinnvoll umsetzbar, weil natürlich nicht jedes Paket innerhalb der EU auf solche Medien kontrolliert werden kann.

Also ich bin froh, dass die Zeiten des „Jugendschutzes“ in dieser Form endgültig vorbei sind.

4 „Gefällt mir“

Naja, du sprichst wichtige Punkte an. Aber zu der Zeit war es trotzdem erschwert, an bestimmte Medien zu kommen, wenn man eben minderjährig war.

Heute kommen schon manche Grundschüler mit Pornos in Berührung. Kinder und Jugendliche werden auf Tiktok und in Onlinespielen (z. B. Roblox) belästigt. Haben Kontakt mit Glücksspielen und anderen süchtig machenden Mechaniken in z. B. Handyspielen oder Videospielen (z. B. Loot Boxen) oder sozialen Medien (u.a. Likes). Bekommen ein ungesundes Körperbild präsentiert (Stichwort: SkinnyTok), kriegen Gewaltvideos in die ForYou-Page geschoben (z. B. Hamas-Angriff auf das Nova-Festival), werden mit rechtsextremen Gedankengut indoktriniert (AfD und Co.), etc.

Und das alles ungefiltert, ohne Grenzen, ohne Jugendschutz. Da lobe ich mir doch Zeiten, in denen es schwer war an Mortal Kombat ranzukommen, Bushidos Alben auf dem Index gelandet sind, ab18 Medien hinter dem schwarzen Vorhang der Videothek unerreichbar waren und Gewaltbilder auf rotten.com aktiv aufgerufen werden mussten, wenn man den Mist denn aus jugendlicher Neugierde sehen wollte.

Was machen wir stattdessen mit unserer Jugend? Man sieht es oben, wie von mir aufgeführt. Wir fahren sie gegen die Wand!

Und die Verantwortung dafür nur in die Hände der Eltern zu geben, greift nicht. Jugendliche ohne Smartphone großwerden zu lassen, führt zu sozialer Ausgrenzung.
Wir haben hier ein extremes Politikversagen. Die Jugend interessiert halt nur, wenn sie irgendwann so alt ist, dass sie Geld in die Rentenkassen spülen kann. Aber eigentlich selbst dann auch nicht.

2 „Gefällt mir“

P. S. Der Take mit „Doom“ ist falsch dargestellt. Lustig gemacht hat man sich nicht. Da der Titel indiziert war, durfte man ihn nicht bewerben, also auch nicht mit offiziellen Namen erwähnen.

1 „Gefällt mir“

Gibt‘s hier im Forum eigentlich Threads / Diskussionen über Regulierung von sozialen Medien? Ich würde gerne mal wissen, wie der aktuelle Stand der öffentlichen Diskussion dazu ist.

Ich bin unverändert verwundert, wie eine Gesellschaft ratlos dabei zusieht, wie …

  1. … veröffentlichte Falsch- (Lügen) und Fehlbehauptungen (Irrtümer), Hass, Gewalt von Plattformbetreibern stehen gelassen werden - besonders gerne, wenn sie für Empörung sorgt, s.u.
  2. … auch Kinder- und Jugendliche Zugang zu diesen und zu Pornos haben.
  3. … wir als Gesellschaft extrem ausgeklügelte Algorithmen akzeptieren, die mit psychologische Tricks die Erwachsene, Jugendliche und Kinder extrem lange „in ihren Bann ziehen“ (deren Aufmerksamkeit und Lebenszeit stehlen) - zumeist über die Trigger „Empörung“, „Wut“ und „Erregung“.
    • Soziale Plattformen verdienen letztlich an der Empörung über Lügen! Ich habe nix dagegen, wenn sie an Katzenbildern verdienen. Aber an Lügen, die unsere Gesellschaft immer weiter spalten?!?
    • Genau dieses Algorithmen machen es Polarisierungsunternehmer wie die AfD oder auch feindlich gesinnten Staaten (z.B. Russland) und Organisationen (z.B. Islamisten) leicht, unsere Gesellschafter mit Lügen zu spalten.
    • Und: Die lange, weit überwiegend konsumierende Verweildauer vor unseren Geräten (Infinite- oder Dooms-Scrolling) trägt weder zum sozialen Austausch bei, noch verbessert es die Lebensqualität der meisten Menschen. Meisten Menschen, die in meiner Gegenwart in atemberaubender Geschwindigkeit durch ihren Feed scrollen (ohne die Inhalte wirklich aufmerksam aufzunehmen!), bestätigen auf Nachfrage meisten, dass das ihnen gerade keinerlei Nutzen gebracht hat.
    • Im Zweifel beschädigte es unsere Fähigkeit zur Konzentration, Gedächtnis- und Denkleistung und Beeinträchtigt unser psychisches Wohlbefinden.
  4. … wir als Gesellschaft es zulassen, dass auf diesen Plattformen Bots ihr Unwesen treiben, um diese Dinge noch massiv zu verstärken - ohne dass irgendein gesellschaftlicher Nutzen dafür erkennbar wäre.

Bevor wir diskutieren, wie wir dagegen vorgehen sollen, …

….sollten wir uns doch zuerst einmal Fragen: Wollen wir wirklich nichts dagegen unternehmen? Die bisher ergriffenen Maßnahmen (richten sich m.E. nur gegen 1. mit der Vorgabe, dass soziale Medien zu „moderieren“ haben) sind offensichtlich weitgehend wirkungslos.

Ich wünsche mir einen Staat (eine Staatengemeinschaft), der (die) dieser Entwicklung entschlossen und massiv entgegenwirkt.

Wenn man Strafen nicht durchsetzen kann, kann man aber doch solche Plattformen - als Sanktion vorübergehend - im europäischen Internet blockieren (so zumindest mein Verständnis).

Dazu muss man natürlich auch bereit sein, den Ärger von Benutzern solcher Plattformen auszuhalten (durch eine öffentliche Diskussion: vorbeugen), die vermutlich erst einmal aufschreien würden, wenn sie einen Zeitlang Ihren Zugang zu TicToc, Telegram, X, Insta, Facebook, WhatsApp, Youtube, etc. verlieren.

1 „Gefällt mir“

Ich habe mal recherchiert, welche regulatorische Maßnahmen die Europäische Union und Deutschland in den letzten Jahren ergriffen hat, um soziale Medien zur Löschung von Falsch- und Fehlbehauptungen, Hassrede, Gewaltaufrufen und anderen illegalen oder schädlichen Inhalten zu verpflichten.

Da gibt es den Digital Services Act (DSA) der EU: Er verpflichtet seit 2022 Plattformen, systemische Risiken wie Desinformation, Hassrede und Gewaltaufrufe aktiv zu bewerten und zu mindern. Sie müssen illegale Inhalte nach Kenntnisnahme „unverzüglich“ entfernen und umfassende Transparenz über ihre Moderationsentscheidungen und Algorithmen schaffen. Für sehr große Plattformen (> 45 Millionen EU-Nutzer, z.B. Facebook, X/Twitter, TikTok, YouTube) gelten besonders strenge Auflagen: Regelmäßige Risikoanalysen, Zusammenarbeit mit Fact-Checkern, Pflicht, Inhalte nach Hinweisen von vertrauenswürdigen Hinweisgebern vorrangig zu prüfen. Verstöße können mit Bußgeldern von bis zu 6 % des weltweiten Jahresumsatzes oder sogar einer Sperrung des Dienstes in der EU geahndet werden.

In Deutschland gibt es seit bereits 2018 das Netzwerkdurchsetzungsgesetz (NetzDG). Es verpflichtet soziale Netzwerke mit > zwei Millionen Nutzern in Deutschland, „offensichtlich rechtswidrige“ Inhalte (z.B. Volksverhetzung, Bedrohung, Verleumdung, Aufruf zu Straftaten) innerhalb von 24 Stunden nach Meldung zu löschen oder zu sperren (für weniger eindeutige Fälle gilt eine Frist von sieben Tagen). Die Plattformen müssen ein leicht zugängliches Beschwerdemanagement einrichten, halbjährlich Transparenzberichte veröffentlichen und einen Ansprechpartner in Deutschland benennen. Bei systematischen Verstößen drohen Bußgelder von bis zu 50 Millionen Euro.

Seit 2022 existiert zudem eine zentrale Meldestelle beim BKA für strafbare Inhalte im Internet[8].

Habt Ihr den Eindruck, dass diese Maßnahmen ausreichen?