Cookie Hinweis

Suche

Tendenz

Das Magazin der Bayerischen Landeszentrale für neue Medien

Die unsichtbare (Meinungs-)Macht der Algorithmen
zur Übersicht aller ArtikelAlle Artikel zur Übersicht aller AusgabenAlle Ausgaben

Die unsichtbare (Meinungs-)Macht der Algorithmen

Über die Risiken algorithmischer Kuratierung im Netz wird seit Jahren intensiv diskutiert. Kaum eine andere Metapher ist im Kontext der Debatte so populär wie die der Filterblase, für die empirische Belege fehlen. Echokammern hingegen sind an den politischen Rändern belegbar. Nach Einschätzung der Kommuni­kationswissenschaftlerin Birgit Stark hängt das Wirkungsrisiko mit Blick auf die Vielfalt vor allem von der Intensi­tät der Nutzung sozialer Medien ab.

Text Birgit Stark

Die Filterblasen-These, die 2011 durch das Buch des Internetaktivisten Eli Pariser bekannt wurde, bezieht sich ganz konkret auf die Personalisierungslogiken von Algorithmen. Nutzende können durch algorithmenbasierte Empfehlungssysteme in Filterblasen geraten, in denen sie von gesellschaftlich relevanten Diskussionen weitgehend abgekoppelt sind. Und sie können sich in die Nischen von Paralleldiskursen begeben, auch Echokammern genannt, da sie von den personalisierten Algorithmen nur noch Nachrichten vorgesetzt bekommen, die ihr Weltbild bestätigen. Mit überraschenden Meinungen oder Standpunkten, die von den eigenen abweichen könnten, kommen sie dann nicht mehr in Kontakt.

Beide Metaphern beschreiben die Gefahr, dass Menschen sich in eine Welt zurückziehen, in der sie nur noch Themen, die sie interessieren, und Meinungen, die sie selbst vertreten, zur Kenntnis nehmen (müssen) – auch als einstellungskonsonante Informationsräume zu verstehen. Ein Wirkungspotenzial, das in der Regel mit einer Abnahme der Informationsvielfalt verbunden ist. Gewarnt wird deshalb eindringlich vor den gesellschaftlichen Folgen, denn die Einschränkung der individuellen Themenhorizonte kann zu einer wachsenden Fragmentierung bzw. Polarisierung führen. Demzufolge ist auch die Spaltung der Gesellschaft in aller Munde.

Filterblasen und Echokammern: Was ist eigentlich der Unterschied?

Entscheidend für die Abgrenzung ist der Fokus: Filterblasen entstehen um eine einzelne Person herum durch algorithmische Personalisierung und konzentrieren sich auf technisch bedingte Auswahlentscheidungen. Echokammern beziehen sich auf gruppendynamische Prozesse, d.h., auf Kommunikationssituationen, in denen sich Menschen miteinander austauschen. Sie entstehen, weil Menschen sich in der Regel offline wie online mit Gleichgesinnten umgeben, d.h. Netzwerke mit anderen bilden, die ihnen ähnlich sind.

Gleichgesinnte bestärken sich fortlaufend gegenseitig in ihren gemeinsamen Meinungen, während der Kontakt mit davon abweichenden Meinungen immer stärker marginalisiert wird. Online können soziale bzw. kollaborative Filter solche Präferenzen noch verstärken, weil auf der Basis von Ähnlichkeitsanalysen auch die Empfehlungen anderer User bzw. des direkten Netzwerkes mit einfließen können. In aller Kürze lässt sich folglich zusammenfassen: In einer Filterblase ist man allein – in einer Echokammer kann man nicht allein sein.

Empirische Belege für die Filterblase fehlen

Warum ist die Filterblasen-Metapher so erfolgreich? Die Metapher der Filterblase ist und bleibt ein wirkungsvolles, imaginäres Bild, das die Diskussion über den Einfluss sozialer Medien über lange Zeit bestimmt hat. Empirische Belege für die Filterblase fehlen bisher allerdings weitgehend. Demzufolge gilt die Filterblase mittlerweile als „geplatzt“, denn die wenigen nachweisbaren Wirkungsmechanismen generieren kaum Effekte im Sinne einer völlig abgekapselten Informationsblase. Zwar beeinflussen Plattformen die individuell rezipierte Vielfalt. Je nach Plattform und Intensität der Nutzung ergeben sich jedoch mitunter sogar positive Effekte.

Echokammern hingegen sind an den politischen Rändern belegbar und damit ein Nischenphänomen, das Menschen mit extremen (politischen) Meinungen betreffen kann. In solchen Kommunikationsumgebungen fehlt in der Regel die Auseinandersetzung mit gegensätzlichen politischen Meinungen, so dass auch positive Effekte ausbleiben, wie beispielsweise die Stärkung politischer Toleranz oder der Aufbau fundierter politischer Meinungen.

Kein Stimmungsbarometer der Gesamtgesellschaft

Nachweisbar sind zudem Effekte auf die Wahrnehmung des Meinungsklimas. Denn Meinungen in sozialen Medien gehören oft einer „lauten Minderheit“ an und können ein falsches Bild der Mehrheitsmeinung suggerieren. Durch die massenmediale Berichterstattung über politische Diskurse erreichen sie auch Menschen, die selbst gar keine sozialen Medien nutzen.

Somit beeinflusst eine lautstarke Minderheit auf individueller Ebene die Artikulationsbereitschaft der Mehrheit negativ und polarisiert auf kollektiver Ebene die öffentliche Meinung auch außerhalb sozialer Medien. Deshalb sollten wir verstehen lernen, dass Themen und Meinungen in sozialen Medien nicht zwangsläufig als Stimmungsbarometer der Gesamtgesellschaft zu deuten sind.

In methodischer Hinsicht gilt, dass die Erfassung der Effekte nach wie vor schwierig ist und bessere Einblicke in die „Black Box“ der Algorithmen für Wissenschaftler unerlässlich bleiben. Trotz der verstärkten Bemühungen um Transparenz sind algorithmenbasierte Auswahllogiken in ihrer Gesamtkomplexität kaum fassbar.

Auswirkung auf Vielfalt hängt von Nutzungsintensität ab

Aktuelle eigene Forschungsergebnisse belegen außerdem, dass zwischen kurzfristiger, spontaner und langfristiger, regelmäßiger Nutzung von Medienintermediären unterschieden werden muss, da sie mit diametral entgegengesetzten Auswirkungen auf die Vielfalt der genutzten Nachrichten verbunden ist. Entscheidend ist, ob User regelmäßig und intensiv Intermediäre nutzen (dann sinkt die Vielfalt der genutzten Nachrichten), oder sie nur punktuell brauchen, um Nachrichten zu finden (dann steigt die Vielfalt der genutzten Nachrichten).

Das bedeutet: Unterschiedliche Kuratierungslogiken entfalten in Abhängigkeit vorhandener Nutzungsmuster auch verschiedene Wirkungspotenziale. Wie stark die Vielfalt der rezipierten Nachrichten beeinträchtigt wird, hängt demnach von der Intensität und Art der Nutzung ab. Entwarnung zu geben, wäre deshalb fehl am Platz. Denn dass algorithmische Personalisierung die individuelle und kollektive Meinungsbildung beeinflusst, steht außer Frage – nur in anderer Form, als insbesondere die Debatte um Filterblasen nahelegt. 

Bild Bettina Pregel
Prof. Dr. Birgit Stark ist seit 2011 Professorin für Kommunikationswissenschaft am Institut für Publizistik an der Johannes Gutenberg-Universität Mainz. Sie beschäftigt sich mit den Folgen des digitalen Strukturwandels der Öffentlichkeit und fokussiert sich in ihren Forschungsarbeiten auf die Rolle von Informationsintermediären.
zur Übersicht aller AusgabenAlle Ausgaben zur Übersicht aller ArtikelAlle Artikel

Artikel teilen

E-Paper 1/22

TENDENZ als pdf

  • TENDENZ 1/22
  • (PDF, 7 MB)

Info

Bildnachweis 1/22