Nudging: Forscher wollen Soziale Medien reparieren

Wie können Soziale Medien verbessert werden?Forscher empfehlen, Nutzer:innen von Sozialen Netzwerken bessere Informationen und mehr Entscheidungsmöglichkeiten zu geben. Gemeinfrei-ähnlich freigegeben durch unsplash.com Jon Tyson

Hatespeech, Fake News, Skandalisierung und Verschwörungsmythen: Es gibt viele Symptome, die darauf hinweisen, dass es um den Zustand der digitalen Öffentlichkeit nicht allzu gut bestellt ist. Ein internationales Forscherteam hat am Montag im Fachmagazin Nature Human Behaviour Lösungsvorschläge vorgestellt, wie einige der Probleme geheilt und Soziale Medien als Diskursplattformen verbessert werden könnten.

Im Wesentlichen geht es den Autoren Philipp Lorenz-Spreen (Deutschland), Stephan Lewandowsky (Australien), Cass Sunstein (USA) und Ralph Hertwig (Deutschland) darum, Nutzer:innen bessere Informationen und mehr Entscheidungsmöglichkeiten zur Verfügung zu stellen. Beispielsweise sei die Angabe, dass ein Artikel über 4.000 Likes bekommen habe, allein wenig wert. Erst mit der Information, dass der Text mehr als eineinhalb Millionen Mal angeklickt worden sei, könne die Zahl mündigen Nutzer:innen wirklich Orientierung bieten.

Als Ursache für die vielen Probleme der Sozialen Netzwerke haben die Autoren die informationelle Entmündigung der Nutzer:innen durch die Plattformbetreiber:innen ausgemacht: „Für demokratische Gesellschaften ist es eine bedenkliche Entwicklung, wenn intransparente Algorithmen einiger weniger Konzerne entscheiden, was wir im Internet zu sehen bekommen“, heißt es in der zugehörigen Pressemitteilung des Max-Planck-Instituts für Bildungsforschung.

Nudging für die gute Sache

Soziale Medien sind heute wichtige Foren der politischen Öffentlichkeit, alle bedeutenden gesellschaftlichen Diskurse haben inzwischen auch eine Online-Komponente. Das Geschäftsmodell dieser sozial-digitalen Infrastruktur führt jedoch zu einem grundlegenden Widerspruch: Statt möglichst gesunde Debatten zu ermöglichen, werden die Plattformen in erster Linie darauf optimiert, die Aufmerksamkeit der Nutzer:innen möglichst lange zu halten und sie auf bezahlte Inhalte zu lenken. Bevorzugt werden deshalb solche Inhalte, die möglichst viele Reaktionen hervorrufen.

Viele Forscher:innen führen für Facebook, Youtube und Co. permanent verhaltenspsychologische Experimente durch, um den bestmöglichen Effekt zu erzielen: Wie muss die Plattformen gestaltet sein? Welche Informationen müssen Nutzer:innen wie präsentiert bekommen und welche Auswahlmöglichkeiten sollte es geben? Für diese Form der Beeinflussung hat Co-Autor Cass Sunstein Ende der 2000er Jahre den inzwischen weit verbreiteten Begriff des „Nudging“ mitgeprägt, was auf Deutsch so viel wie „Anstupsen“ bedeutet. Wenn gezielt designte Online-Umgebungen Nutzer:innen in eine bestimme Richtung lenken, spricht man inzwischen häufig auch von „Dark Patterns“: verborgene Muster, die die Entscheidungen der Nutzer:innen vorprägen und sie auf den gewünschten Weg führen – etwa zum unüberlegten Impulskauf im Online-Shop oder zu den schwächsten Datenschutzeinstellungen.

Die Autoren schlagen nun vor, die gleichen Mittel anzuwenden, um die Sozialen Medien besser zu gestalten: Mit Ideen aus der Verhaltensökonomie wollen sie die Transparenz der Plattformen und die Autonomie der Nutzer:innen verbessern. Nudging ziele schließlich darauf ab, „das Verhalten von Menschen ohne explizite Regeln oder Verbote in eine bestimmte Richtung zu lenken, indem auf wichtige Informationen hingewiesen wird.“ Durch bestimmte Gestaltungsentscheidungen könnte zudem die Entscheidungskompetenz der Nutzer:innen erhöht werden, sogenanntes „Boosting“. Technisch verfügbar seien diese Lösungen schon heute, sie würden nur nicht umgesetzt.

Autonomie über den eigenen Newsfeed

Viele der „Interventionen zugunsten eines demokratischeren Internets“, die die Autoren vorschlagen, setzen bei der Informiertheit der Nutzer:innen an. Menschen könnten die Qualität von verlinkten Artikeln beispielsweise deutlich besser einschätzen, wenn sie wüssten, wie oft der Text angeklickt wurde. Wie viele Likes ein Post bekommen hat, könnte dann ins Verhältnis gesetzt und besser eingeschätzt werden. Hilfreich wären auch öffentliche Angaben über die Verweildauer und darüber, wie viele der Leser:innen den Text auch wirklich bis zum Ende gelesen haben, meinen die Autoren.

Nutzer:innen sollten zudem Informationen darüber erhalten, wer bestimmte Inhalte erstmalig gepostet hat und wie sie sich verbreiteten. Artikel, die verschiedene Quellen beinhalten und diese auch verlinken, könnten in der Darstellung in Sozialen Netzwerken zudem bevorzugt werden. Andersherum könnten Nutzer:innen, die einen Artikel ohne ausreichend Quellen teilen wollen, mit einem Pop-Up-Fenster gewarnt werden. Außerdem könnte es Nutzer:innen helfen, wenn unterschiedliche Inhaltsarten – also beispielsweise Posts von Freund:innen, Posts von Organisationen, journalistische Inhalte und Werbung – in Nachrichtenfeeds klar als solche gekennzeichnet würden. Bisher trifft das meist nur auf Werbung zu – und auch diesen Hinweis muss man suchen.

Information alleine reicht den Autoren zufolge jedoch nicht aus, um die digitale Öffentlichkeit zu reparieren. Als womöglich weitreichendsten Schritt schlagen sie vor, den Nutzer:innen tatsächliche Autonomie über ihre Newsfeeds (wieder) zu geben: Sie sollen selbst anpassen können, nach welchen Kriterien Soziale Netzwerke ihnen Inhalte anzeigen.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Olivenöl-ozonisiert benji

Jutetasche "Blume des Lebens"

Kolloidales-gold-u-silber benji

benji Karaffe Alladin Gold + 2_Becher Gold

mousepad Blume des Lebens benji

Es gibt neue Nachrichten auf friedliche-loesungen.org
:

Nur wer angemeldet ist, geniesst alle Vorteile:

  • Eigene Nachrichten-Merkliste
  • Eigener Nachrichtenstrom aus bevorzugten Quellen
  • Eigene Events in den Veranstaltungskalender stellen
M D M D F S S
 
 
 
 
 
1
 
2
 
3
 
4
 
5
 
6
 
7
 
8
 
9
 
10
 
11
 
12
 
13
 
14
 
15
 
16
 
17
 
18
 
19
 
20
 
21
 
22
 
23
 
24
 
25
 
26
 
27
 
28
 
29
 
30
 
31