Wer Nutzer-Interaktionen optimiert, verbessert nicht unbedingt die Debatten
Soziale Netzwerke und Suchmaschinen verteilen Aufmerksamkeit. Deshalb sind diese Plattformen Teil des Mediensystems einer Gesellschaft – sie gestalten Öffentlichkeit mit. Das ist in den Debatten über die digitale Sphäre common sense. Die Analyse konzentriert sich bislang vor allem auf diese Fragen:
- Entstehen da neue Teilöffentlichkeiten mit wenig Überschneidungen (Echokammern, Filterblasen usw.)?
- Geht das große Ganze verloren?
- Ist das heute anders als je zuvor?
Das sind alles gute Fragen. Allerdings denke ich, dass andere hilfreich zum Verständnis des Phänomens sind:
- Worauf hin optimiert eine Plattform wie Facebook eigentlich?
- Anhand welcher Modelle und Daten passiert das?
Die Frage ist wichtig, um klarer zwei Aspekte zu trennen, die bei der Echokammer-Debatte oft vermischt werden:
- Was sollte geschehen?
- Was geschieht?
Ich spiele das an einem aktuellen Beispiel durch. In der mazedonischen Kleinstadt Veles betreiben einige junge Menschen um die hundert Websites mit gut erfundenen und/oder kopierten Geschichten über Donald Trumps Erfolge und Hillary Clintons kurz bevorstehende Verhaftung. Eine Recherche von Buzzfeed beschreibt das Geschäftsmodell: Die Inhalte kopieren die Jugendlichen von rechtslastigen US-Websites, versehen sie mit einer noch knalligeren Überschrift und verbreiten die über Facebook. Dort wird das Material an ein breites Publikum ausgespielt und offenbar vor allem unter Trump-Fans weitergereicht. Einige davon rufen die Website auf und dann verdienen die Betreiber an der Banner-Werbung.
Die erste Reaktion darauf ist mit Sicherheit: Das sollte so nicht sein! Abgeschriebene und zudem halb oder ganz ausgedachte Geschichten sollten keine Aufmerksamkeit auf einer Verteilerplattform erhalten.
Blenden wir kurz aus, was sein sollte. Was geschieht hier überhaupt? Wie kann es sein, dass solche Beiträge eine beachtliche Reichweite erhalten? Nach welchen Modellen Facebook auswählt, was zusätzliche Aufmerksamkeit erhält, ist von außen nicht abschließend zu bestimmen. Aber mit gesundem Menschenverstand kommt man auf plausible Hypothesen:
- Der Wahrheitsgehalt eines Inhalts ist für die Plattform Facebook nur über korrelierende Signale einzuschätzen.
Was ist über die Quelle selbst an Daten vorhanden? Zum Beispiel: Wie oft publiziert sie? Welche Eigenschaften (Sprache, Länge etc.) hat das Material? Ich denke nicht, dass eine Plattform wie Facebook anhand dieser spärlichen Datenlage primär auf Wahrheit oder andere Merkmale der Inhalte hin optimiert. - Die Reaktion der Facebook-Nutzer sind für eine Plattform Facebook wahrscheinlich weit aussagekräftigere Signale.
Diese Daten kommen aus erster Hand, sie sind vergleichbar. In welcher Zeit reagieren welche Nutzer wie auf welche Reize? Man könnte aus diesen Informationen natürlich auch ein Modell über den Wahrheitsgehalt und andere Qualitäten von Beiträgen ableiten. - Es ist wenig wahrscheinlich, dass eine Plattform wie Facebook auf abstrakte Qualitäten wie Wahrheitsgehalt oder konstruktiven Diskurs hin optimiert.
Naheliegend erscheint mir vielmehr, dass die obersten Ziele eine bestimmte Intensität, Qualität und Masse von Nutzerreaktionen sind. Ein kommerzielles Medium braucht Publikum. Was die Auflage bei redaktionellen Medien ist, sind die aktiven Nutzer digitaler Plattformen.
Gemessen wird vorrangig, wie Menschen reagieren. Denn das oberste Ziel der Optimierung sind bestimmte Reaktionen der Nutzer: Möglichst viele sollen möglichst oft die Plattform frequentieren.
Aber nur weil ein Modell Nutzerreaktionen einbezieht, sind nicht die Nutzer allein für den Output des Modells verantwortlich. Es sind auch die Schöpfer des Modells. Der Reichweitenerfolg der Halb- und Unwahrheiten aus Veles auf Plattformen ist das Resultat einer bestimmten Gewichtung von Signalen bei der Entscheidung, welche Beiträge ein weiterer Nutzerkreis zu sehen bekommt. Wie operationalisiert man die Reaktionen des Publikums als Hinweis auf die Qualität eines Beitrags?
Ein Gedankenspiel: Vielleicht verbreiten viele Menschen schnell weiter, was knallig klingt. Und vielleicht gibt es einen grundlegenden Unterschied zwischen dieser Reaktion auf Veles-Inhalte und der Reaktion auf ausgewogene Analysen mit konstruktiven Schlussfolgerungen. Es kann sein, dass die ausgeruhten Analysen zwar nicht in kurzer Zeit sehr häufig weiterverbreitet werden, aber über einen langen Zeitraum hinweg überdurchschnittlich oft. In dem Fall kommt es darauf an, welche Nutzerreaktionen in welchem Zeitraum unser Modell als Signal für ein »mehr davon, den Leuten gefällt es« bewertet. Maximaler Impact in kurzer Zeit? Dann gibt es mehr Neuigkeiten aus Veles. Kontinuierliche Empfehlungen über einen langen Zeitraum? Dann gibt es mehr vom New Yorker.
Fazit: Wenn eine Plattform Aufmerksamkeit nach scheinbar objektiv messbaren Kriterien wie den Reaktionen der Nutzer verteilt, wird sie je nach Modellierung systematisch Inhalte bevorzugen, die verlässlich bestimmte Reaktionen provozieren. Die entscheidenden Fragen:
- Welche Merkmale von Inhalten korrelieren mit welchen Reaktionen? Anders gesagt: Wie hängt zusammen, was ist und was sein sollte?
- Reagieren Menschen zum Beispiel stärker auf negative, emotionale Beiträge? Da gibt es einige Hinweise aus der Empirie. Negative Beitrage auf den Facebook-Seiten politischer Parteien erhalten mehr Kommentare als positive, emotional negativ aufgeladene Tweets verbreiten sich deutlich schneller als positive oder neutrale.
- Unterscheiden sich hier kurzfristige und langfristige Reaktionen?
- Und welchen dieser Reaktionen messen die Modelle der Aufmerksamkeitsverteiler welche Bedeutung bei?
- Welche Interaktionen und Reaktion ermöglicht eine Plattform überhaupt? Die Wikipedia zeigt ja, dass auch maximaler Dissens in einem bürokratischen Verfahren einen brauchbaren Wahrheitskonsens produzieren kann.
tl;dr: Engagement ist leicht zu messen (Views, Likes, Reichweite). Wahrheit, Vielfalt, Empathie sind’s nicht – sehr schön auf Englisch zusammengefasst von @azeem hier.