Aktuelles  10.08.2023

Extremismus durch Social Media

Social-Media-Algorithmen sind nicht auf menschliche soziale Instinkte abgestimmt, die die Zusammenarbeit fördern sollen, was eine Polarisierung und Fake News befeuern kann.

Das haben Forscher der Kellogg School of Management der Northwestern University herausgefunden. Das steht im Gegensatz zu früheren Gewohnheiten, als Menschen dazu neigten, von Gleichaltrigen oder angeseheneren Individuen zu lernen, da deren Infos mit größerer Wahrscheinlichkeit zuverlässig waren und zum Gruppenerfolg führten.

Eine Person, mit der wir online verbunden sind, ist möglicherweise nicht unbedingt kompetent und vertrauenswürdig. Doch das lässt sich nicht ohne weiteres feststellen. Menschen können sich in den sozialen Medien leicht völlig anders darstellen als sie in Wirklichkeit sind. Dabei sind Menschen, so die Forscher, eigentlich so gepolt, dass sie von anderen Dinge lernen wollen, die Zusammenarbeit und kollektive Problemlösungen fördern, weshalb sie dazu neigen, mehr von Individuen zu lernen, die sie für kompetent halten.

Im Gegensatz dazu wählen Social-Media-Algorithmen in der Regel Infos aus, die das Engagement der Nutzer steigern, um die eigenen Werbeeinnahmen aufzubessern. Das bedeutet, dass Algorithmen genau die Infos bieten, die die voreingenommene Meinungen der Nutzer verstärken. Und sie können Social-Media-Feeds mit dem übersättigen, was die Forscher als prestigeträchtige, Ingroup-, moralische und emotionale Informationen (PRIME) bezeichnen, unabhängig vom Wahrheitsgehalt der Inhalte. Infolgedessen ist es wahrscheinlicher, dass extreme politische Inhalte verstärkt werden. Hören die Nutzer keine anderen Meinungen, können sie ein falsches Verständnis der Mehrheitsmeinung verschiedener Gruppen haben.

Um dieses Problem anzugehen, schlägt die Forschungsgruppe vor, dass Social-Media-Nutzer mehr darüber nachdenken, wie Algorithmen funktionieren und warum bestimmte Inhalte in ihrem Feed auftauchen. Meta und Co geben in der Regel nicht alle Details darüber preis, wie ihre Algorithmen Inhalte auswählen. Aber ein Anfang könnte darin bestehen, Erklärungen dafür anzubieten, warum einem Nutzer ein bestimmter Beitrag angezeigt wird. Darüber hinaus empfehlen die Fachleute den Social-Media-Anbietern, anstatt PRIME-Infors zu bevorzugen, eine Grenze dafür festzulegen, wie viele sie verstärken und priorisieren, um den Nutzern eine Vielzahl von Inhalten zu präsentieren.

pte/red


Weiter in der Web-Version mit Fotos, Videos, Links und mehr...

#Social Media #Studie #Extremismus #Mediennutzung

Auch interessant!
Extremes Social Media
Extremismus ist ein inherentes Problem in Social Media und schafft Probleme für die psychische Gesundheit...

Medien spiegeln den Frieden
Aus der Häufigkeit bestimmter Wörter in Mainstream-Medien jedes Landes erstellt eine KI der Columbia Univ...

Gewaltiges Youtube?
Minderjährige werden trotz gegenteiliger Beteuerungen von YouTube dort mit Inhalten konfrontiert, die sie...

West-Propaganda kommt nicht an
Im Juli und August dieses Jahres haben Twitter und Meta zwei sich überscheidende Sets von Konten wegen Ve...

Extremisten-Warnung
Ein neuer Facebook-Test warnt Nutzer, die auf der Plattform womöglich 'schädliche extremistische Inhalte'...