25. September 2022

Probleme sind gesellschaftlich, nicht technisch

25.09.2022 — Berlin, Deutschland

Die “Filterblase” hat eine rasante Karriere im gesellschaftlichen Diskurs hingelegt. Wegen ihr und der ebenfalls berühmten “Echokammer” würden soziale Medien und andere online-Plattformen zu gefährlichen Spaltpilzen, heißt es. Nicht unbedingt, argumentiert Svea Windwehr, und erklärt, wie Google mit dem Thema umgeht. 

Svea Windwehr ist bei Google für Regulierungsfragen zuständig.

Wenige Begriffe haben unseren Blick auf das Internet und unseren Medienkonsum in den letzten Jahren so sehr geprägt wie die berüchtigte “Filterblase”. Geprägt von dem Internetaktivisten und Entrepreneur Eli Pariser ist das Konzept ein Synonym geworden für das, was viele als größte Gefahr des Internets sehen: parallele Informationswelten und eine immer tiefer werdende gesellschaftliche Kluft. Dass uns unsichtbare Algorithmen in verschiedene Realitäten einsortieren, so die gängige Weisheit, sei verantwortlich für den Wahlsieg von Donald Trump, den Ausgang der Brexit-Abstimmung und die gesellschaftlichen Verwerfungen rund um die Covid-Impfung.

Der Kern von Parisers Argument besagt, dass algorithmische Personalisierungen beeinflussen und bestimmen, welche Informationen eine Person sieht. Laut Pariser soll dieser Mechanismus dazu führen, dass Menschen nur noch Inhalte angezeigt bekommen, die ihre eigene Weltsicht bestätigen, und dass sie sich so in immer stärker isolierten und polarisierten Informationsökosystemen bewegen.

Menschen würden abgeschnitten von neuen Themen, Gedankenanstößen und Informationen, und dadurch anfällig für Propaganda, Fehlinformationen und Manipulation. Pariser sprach anfänglich von Suchmaschinen und prägte damit das Bild, nach dem jede Nutzer*in in einer ganz eigenen Informationsblase existiert.

Das Argument scheint so simpel wie intuitiv: Von den Posts, die wir in unseren Social Media Newsfeeds angezeigt bekommen, zu den Vorschlägen, die uns von Video- oder Musik-Streaming Plattformen gemacht werden — vielerorts werden Algorithmen eingesetzt, um Nutzer*innen auf Inhalte hinzuweisen, die für sie relevant und interessant sein können. Aber gibt es deshalb Blasen, die uns von der Außenwelt abschneiden und die Gesellschaft spalten?

Tatsächlich ist die Antwort auf die Frage, ob es Filterblasen denn nun gibt oder nicht, alles andere als eindeutig. Pariser liefert keine klare Definition des Phänomens und zieht Anekdoten heran, um den Effekt der mutmaßlichen Filterblase zu veranschaulichen. Das Konzept wird in verschiedenen akademischen Disziplinen sehr unterschiedlich aufgefasst, und die empirische Evidenz ist bestenfalls mangelhaft.

Metastudien von Axel Bruns (2019), Jan Philipp Rau und Sebastian Stier (2019)Tobias D. Krafft et al (2017) oder der Medienanstalt Berlin-Brandenburg (2021) kommen zum Schluss, dass das Konzept der Filterblase bzw. Echokammer empirisch nicht belegt werden kann — im starken Kontrast zur zentralen Rolle der Begriffe in der gesellschaftlichen und politischen Debatte.

Stehen Algorithmen hinter unseren Informationsblasen oder sind es unsere eigenen Entscheidungen?

Eine Vielzahl von Studien deutet darauf hin, dass Menschen, die ihre Nachrichten online bzw. über soziale Netzwerke beziehen, weniger anfällig für Polarisierung sind als Personen, die sich nicht online informieren (z.B. Boxell et al, 2017).  Das würde erstmal auf größere Diversität, mehr Inputs, weniger Abschottung hindeuten.

Wenn jetzt alle diese Quellen etwas Ähnliches sagen, ist die Frage, ob dies die Algorithmen so steuern, oder ob es an der bewussten Entscheidung der Nutzer*innen liegt — weil sie sich online mit Menschen verbinden, die die eigene Haltung teilen oder Medieninhalte verbreiten, die den eigenen Standpunkt bestätigen. Dieses Phänomen — die Tendenz von Menschen, mit Personen in Kontakt zu treten, die die eigenen Meinungen teilen, auch Homophilie genannt — lässt sich in allen Kommunikationsräumen beobachten, online wie offline (z.B. Batorski & Grzywińska, 2018). 

Damit kommen wir zur eigentlichen Crux der Debatte um den Einfluss von Filterblasen auf unsere Demokratien: Nur weil ein Problem online sichtbar wird, heißt das nicht, dass es online entstanden ist.

Konzepte wie “Filterblase” und “Echokammer” haben eine starke deterministische Konnotation; Technik tut hier etwas mit Menschen, ohne dass diese darauf einen Einfluss hätten.

Das Gegenteil ist aber der Fall: Nutzer*innen von Online-Plattformen treffen aktive Entscheidungen, suchen sich aus, was sie mit wem teilen, und gehen oft bewusst auf Gruppen zu, mit denen sie sympathisieren oder denen sie sich zugehörig fühlen. Die algorithmische Sortierung von Newsfeeds oder vorgeschlagene Inhalte sind darum nur ein Aspekt des Informationskonsums im Internet, und nicht das ganze Bild (Bruhns, 2019).

Im Umkehrschluss bedeutet dies, dass wir uns mit unseren eigenen Vorurteilen, Überzeugungen und Gewohnheiten beschäftigen müssen, wenn wir der Polarisierung etwas entgegensetzen möchten.

Dass gesellschaftliche Spannungen und Spaltungstendenzen existieren, ist unbestritten. Doch die Technik alleine ist nicht schuld und auch nicht die Lösung. Es führt kein Weg daran vorbei, uns mit den gelebten Erfahrungen verschiedener gesellschaftlicher Gruppen auseinanderzusetzen. 

So gelegen uns die „Filterblase“ als Erklärung kommen mag, um den Zustand der diskursiven Räume unserer Demokratien zu erklären, so sehr verstellt sie uns den Blick auf die eigentlichen Treiber der gesellschaftlichen Polarisierung. Der Soziologe Wilhelm Heitmeyer bringt es auf den Punkt: “Ungleichheiten zerstören Gesellschaften”. Wir brauchen Lösungsansätze, die sowohl die digitale als auch die analoge, gesamtgesellschaftliche Dimension mitdenken — wachsende Ungleichheit, abgehängte Bevölkerungsgruppen, ein immer rauerer Ton in politischen Debatten.

Meine Aufgabe bei Google ist es, politische und gesellschaftliche Entwicklungen rund um die Themen Informationsqualität und damit auch den Umgang mit schädlichen und illegalen Inhalten zu begleiten.

Wir bauen im Umgang mit Polarisierung und Misinformation auf vier Säulen:

  1. Wir gehen gegen Inhalte vor, die rechtswidrig sind oder gegen unsere Richtlinien verstoßen. Die YouTube Community-Richtlinien legen fest, welche Inhalte zulässig sind und welche nicht. So sind z.B. irreführende Inhalte, die ein ernsthaftes Risiko für Schäden darstellen, nicht erlaubt. Wenn es um Fehlinformationen geht, orientieren wir uns an bestätigten Informationen und Konsens in der Fachwelt als Grundlage für unsere Richtlinien. So stützen wir uns zum Beispiel bei der Richtlinie zu medizinischen Fehlinformationen über COVID-19 auf die Expertenmeinung internationaler Gesundheitsorganisationen und lokaler Gesundheitsbehörden. Grundsätzlich erarbeiten wir unsere Richtlinien in Zusammenarbeit mit externen Expert*innen aus verschiedensten Bereichen. 
  2. Außerdem schränken wir grenzwertige Inhalte ein, bei denen nicht viel zum Richtlinienverstoß fehlt. Auf YouTube werden solche Inhalte gezielt nicht empfohlen und somit in ihrer Reichweite eingeschränkt.
  3. Andererseits wollen wir aber auch zuverlässige Inhalte sichtbar machen. Für Inhalte wie Nachrichten, politische Inhalte oder medizinische und wissenschaftliche Informationen, bei denen es auf Genauigkeit ankommt, setzen wir darum maschinelles Lernen ein, um Informationen aus vertrauenswürdigen Quellen in den Suchergebnissen und Empfehlungen hochzustufen.
  4. Um zuverlässige Kanalbetreiber*innen zufördern, belohnen wir Creators, die bestimmte Voraussetzungen erfüllen und sich an die Community- und die Monetarisierungsrichtlinien halten, mit der Möglichkeit, mit ihren Inhalten Einnahmen auf YouTube zu erzielen.

Mir persönlich und dem Unternehmen ist bewusst, dass neben YouTube auch die Google-Suche für Nutzer*innen eine zentrale Rolle spielt. Immer die richtige Antwort auf jede Frage zu bieten, ist allerdings nicht einfach — von den Milliarden Suchanfragen, die Google jedes Jahr verarbeitet, werden 15 Prozent aller Anfragen zum allerersten Mal gestellt. Außerdem sind nur 5 Prozent aller Suchergebnisse personalisiert.

Die Google Suche ist oft insbesondere dann ein erster Anlaufpunkt, wenn sich Situationen rasant verändern. Dann ist es wichtig, aber auch besonders schwierig, vertrauenswürdige Informationen zu finden. In solchen Fällen — wenn die Suchmaschine keine verlässlichen Informationen zu einer Suchanfrage finden kann — werden Nutzer*innen darauf hingewiesen.

Damit machen wir gegenüber den Nutzer:innen deutlich, dass sich Informationslagen schnell ändern können — wie wir alle während der Covid-Pandemie erlebt haben.

Ein weiterer wichtiger Aspekt ist die Stärkung des journalistischen Ökosystems. Im Rahmen des Projekts “Faktencheck22” mit der Nachrichtenagentur DPA will Google möglichst viele Verlage und Medienhäuser in ganz Deutschland bei der Ausbildung eigener Faktencheck-Teams unterstützen. Dazu kommen finanzielle Beiträge, beispielsweise durch Zahlungen an den European Media and Information Fund. Mit Werkzeugen wie dem Fakten Check Explorer können Nutzer*innnen außerdem selbstständig recherchieren, ob bestimmte Aussagen oder Fakten schon von Faktencheck-Organisationen überprüft worden sind.

Ob sich manipulative Narrative durchsetzen und Menschen gegen Desinformation gewappnet sind, ist letztendlich eine gesamtgesellschaftliche Frage. So verlockend es auch sein mag, sich in der Problemanalyse auf die so schwer nachweisbare “Filterblase” zu beschränken: Technologie ist zwar nicht neutral, aber auch nicht inhärent problematisch.

Die angeblichen „Filterblasen“ zu beseitigen ist darum auch keine Wunderwaffe, um den gesellschaftlichen Zusammenhalt zu retten und sich der Polarisierung entgegenzustemmen. Hier sind wir vielmehr als Gesellschaft insgesamt gefordert, um mediale Vielfalt zu sichern und die Medienkompetenz insgesamt zu verbessern. 

ad hoc international jetzt abonnieren!

Hier diskutieren Fachleute ihre Erfahrung aus der Praxis. Alle drei Monate erscheint ein thematischer Blog zu einer drängenden Frage der internationalen Politik und Zusammenarbeit.