Unterdrückt Linkedin kritsche Posts?

Hallo zusammen,

ich habe einen Beitrag auf Linkedin gesehen, der mich überrascht hat. In dem Beitrag postet Stefan Rahmstorf, dass zwei seiner letzten Posts kaum Reichweite erziehlt haben, lag das vielleicht daran dass sie zu kritisch waren? Schränkt Linkedin’s Algorithmus, so wie der von X, kritische Posts ein?

Hier der Post: My posts here usually get thousands of ‘impressions’ (views). But recently, some got hardly any visibility. Has that happened to you? Please post screenshots in the comments. I append the two of mine… | Stefan Rahmstorf | 76 Kommentare

Habt ihr gleiche Erfahrungen gemacht? Ist das Zufall gewesen?

Ich bin auf LinkedIn seit einigen Monaten beruflich sehr aktiv und empfinde dort das Netzwerk als tatsächlich Mehrwert-stiftend, im Gegensatz zu X(einfach lassen), Insta und TikTok. Mir ist so etwas noch nicht aufgefallen bei LinkedIn, im Gegenteil wurde mein Feed zuletzt geflutet mit Anti-Trump, AI-kritischen und jetzt geht direkt Reisewarnungs-Posts für die USA. Daher wäre meine Frage:

Gibt es viele weitere Accounts, die das berichten? Hast du es verifiziert oder nur einen Post von irgendwem genommen?

was ich weiß ist, dass LinkedIn seinen Algorithmus 360Brew wohl massiv auf Relevanz geschärft hat. Das bedeutet jeder Account hat erstmal Reichweite verloren, da Zielgruppen-Spezifischer ausgespielt wird. Es wird auch geprobt, ob dein Profil mit dem Post Matched und vieles weitere. Auf mich wirkt der Post von Rahmstorf wie uninformierter Rage-Bait.

Danke für deinen Einblick!

Das mit den spezifischen Zielgruppen kann die Erklärung sein, wobei mir das immer noch etwas seltsam seltsam vorkommt. Gerade Rage-Bait funktioniert doch eigentlich gut auf diesen Plattformen oder?

Ich weiß leider nicht, ob das viele andere Accounts auch betrifft, genau das wollte ich herausfinden.

Auf Reddit habe ich gelesen das wohl LinkedIn genau so wie TikTok, Insta, Reddit selbst und andere Plattformen inzwischen gezielt Themen unpopulär machen. Leider habe ich da keine Belege zur Hand. Getestet wurde das aber auch schon von einigen Medien im Zusammenhang mit den Epstein files und auch ICE.

Kann ich nur natürlich vorstellen, aber lässt dich nicht belegen für mich. Denn genau diese Themen fluten meinen Feed und sind nicht wohlwollend. Ebenso Massen an Trump-Kritik der deutlichsten Art.

Der Fall ist schon interessant. Ich frage mich gleichzeitig, ob hier wirklich ein „kritischer“ oder ein im Kontext von LinkedIn irrelevanter Post unterdrückt wird.

LinkedIn ist ja erst mal kein klassisches Social Network sondern hat einen klaren Business-Fokus. Karriere-Updates, Unternehmensnews und -Marketing, etc. sind dort der Kern-Content und der Grund warum sich Menschen und Unternehmen dort anmelden und zahlen.

Insofern kann ich mir vorstellen, dass LinkedIn nicht-businessrelevanten Content wie hier (der Post ist ja eher politischer Natur) gezielt klein hält um den Markenkern zu erhalten. Unternehmen würden für die Platform sicher weniger zahlen, wenn die Diskussionen in das typische „Trump ist doof“-„Biden war viel schlimmer!“ der anderen Plattformen abdriften würde.

Das finde ich durchaus legitim soweit das für alle Positionen gleichmäßig passiert. Bezogen auf das konkrete Thema sehe ich in meinem Feed reichlich Beiträge mit Bezug auf Renewable Energy und e-Mobility. Klar ist das nicht repräsentativ aber mein persönlicher Feed hat definitiv keinen Fossil-Bias.

4 „Gefällt mir“

Das denke ich auch. LinkedIn hat jetzt schon oft diesen nervigen Insta-Bias. Klar ist dort auch relevant such aus Mensch mit Haltung zu zeigen, aber eben nicht im großen Ausmaß. Es kann auch sein, dass dieser Account mit Automationen oder inflationärem Verlinken zum künstlichen Reichweitenaufbau gearbeitet hat. Da könnte LinkedIn mit einem sogenannten Shadow Ban reagiert habe um hinzu limitieren. Ehe man also Zensur schreit sollte man sich mit den freizugänglichen Infos befassen.

1 „Gefällt mir“

Algorithmen für content-Vorschläge haben zum Ziel, die Nutzungszeit zu maximieren. Natürlich klappt das am Besten, wenn man die Feeds möglichst gezielt füttert. Einem guten (im Sinne von erfolgreich bzgl. engagement maxxing) Algorithmus ist es dabei egal, welcher Content ausgespielt wird.

Algorithmen priorisieren somit zwar Engagement, sind aber dennoch nicht völlig „blind“ gegenüber Inhalten. Die durch Engagement erzielte Reichweite wird daher durch vor allem drei Faktoren eingeschränkt:

  • ​Brand Safety: kontroverse politische Inhalte drosseln, um Werbekunden nicht zu verschrecken (die wollen keine Anzeigen neben „Hass und Streit“ oder in bestimmten Umfeldern).

  • ​Moderations-Filter: KI oder stumpfe Schlagwortregeln sortieren aggressive Kritik möglicherweise fälschlich als „Hassrede“ oder „Spam“ aus, was zu Shadowbanning (Reichweitendrosselung) führt.

  • ​Melde-Missbrauch: Organisierte Gruppen können Beiträge massenhaft melden, wodurch der Algorithmus den Content automatisch abwertet.

​Es ist keine ideologische Verschwörung der Plattformbetreiber, sondern ein Resultat aus Profitgier (Werbefreundlichkeit) und fehleranfälliger KI/Auto-Moderation.

1 „Gefällt mir“

Es konnte sich auch zeigen, dass das nicht für alle Accounts der Fall ist. Entweder technisch bedingt, oder ggf. sogar gezielt gesteuert. Die versuchen auch nicht unbedingt alles zu blockieren, sondern evtl einfach die Welle klein zu halten.