Warum der Begriff Suchmaschine in die Irre führt
Der Psychologe Robert Epstein beschreibt in diesem Ausblick auf sein Buch „The New Mind Control“ aufschlussreiche Experimente zur Wirkung von Internet-Suchmedien. Epsteins Versuche zeigen, dass Suchmedien vor Wahlen in bestimmten Gruppen erheblich die politische Meinungsbildung beeinflussen können – durch das bloße Ranking von Suchergebnissen.
Platzierung in der Trefferliste beeinflusst Meinungsbildung
Die Ergebnisse sind in der wissenschaftlichen Fachzeitschrift PNAS erschienen, also nach einem Peer-Review-Prozess. Epsteins Experimente hatten einen recht einfachen Aufbau: Es werden Teilnehmer rekrutiert, die sich in einer anstehenden Wahl noch nicht auf einen Kandidaten festgelegt haben. Sie werden in unterschiedliche Gruppen eingeteilt und sollen sich per Internetsuche mit einer vorgegebenen Suchmaschine über die Kandidaten informieren. Nach der Suche wird die Präferenz abgefragt. Die Gruppen unterscheiden sich in einem Punkt: Die von den Forschern manipulierte Suchmaschine bevorzugt in jeder Gruppe die Suchtreffer zu einem vorab bestimmten Kandidaten. Auf die verlinkten Inhalte nehmen die Forscher keinen Einfluss, nur auf die Priorisierung der Treffer.
Ergebnis: Die Teilnehmer der Experimente bevorzugen danach signifikant jene Kandidaten, die in ihren Suchtreffern ganz oben erschienen sind. Bei unentschiedenen Wählern kann also die Platzierung von Suchtreffern große Wirkung auf die politische Meinungsbildung haben.
Suchangebote sind in erster Linie Medien, keine Maschinen
Die Ergebnisse Epsteins zeigen, warum wir uns vom Bild und Begriff der Suchmaschine verabschieden sollten. Er führt in die Irre. Eine Maschine funktioniert immer gleich, neutral und mechanisch. Diese Eigenschaften assoziieren wir zumindest mit einer Maschine. Doch Suchangebote und andere Aufmerksamkeitsverteiler im Internet sind etwas gänzlich anderes. Sie sind Medien, weil sie Relevanz einschätzen, Informationen auswählen, weil sie gewichten und bestimmten, welche Neuigkeiten aus der Flut an Neuem welche Nutzer erreichen. Suchmedien verteilen Aufmerksamkeit. Sie sind Gatekeeper und sie können Agenda-Setter sein – in Wahlkämpfen, wie Epstein zeigt.
Dass eine Software auswählt, wer welche Details priorisiert angezeigt bekommt, ändert nicht viel an diesem Prinzip. Die Arbeitsweise und die Parameter, nach denen die Software priorisiert, Erfolg bemisst und Input ordnet, legen Entwickler und Management fest. Sie entscheiden, nach welchen Prinzipien Software bestimmte Informationen bestimmten Nutzern anbietet und anderen nicht. Ein Medium, das allein mit menschlicher Arbeitskraft den Input sortiert, handelt nicht viel anders. Auch dass ein Suchmedium nur den Input verarbeitet, der im Netz existiert, ist aus meiner Sicht kein Alleinstellungsmerkmal. Jede tagesaktuelle Redaktion arbeitet größtenteils mit Input, der von außen und von Dritten kommt.
Wir brauchen eine Ethik der Aufmerksamkeitsverteiler
Wer Software schafft, die für ein Publikum Informationen auswählt, macht Medien. Die Rolle ist eine gänzlich andere als beim Entwerfen eines Editors. Es ist wichtig, dass diese Menschen ein eigenes professionelles Selbstbild und Rollenverständnis entwickeln. Nur so kann diese Profession die ethischen Debatten führen, die nötig sind angesichts dieser Verantwortung. Was ist okay, was nicht? Im Journalismus und in der Sozialforschung oder Medizin helfen Professionsethiken, Kodizes und freiwillige Selbstkontrollorgane wie der Presserat.
Schöpfer von Publikumsverteilern im Netz sind in einer ähnlichen Rolle wie Journalisten: Sie haben meist nicht Philosophie studiert und wenig oder keine Erfahrung mit ethischen Theorien, aber ganz konkrete einzelfallbezogene Fragen.
Natürlich filtern Plattformen. Aber welches Filtern ist gut?
Bei einem Experiment Anfang 2012 beeinflussten Facebook-Mitarbeiter eine Woche lang die geäußerte Stimmung von 689.003 Nutzern. Einer Hälfte wurden überwiegend per Textanalyse als positiv, der anderen vor allem als negativ eingestufte Texte gezeigt. Die kleine, aber messbare Wirkung: Wer mehr Positives sieht, schreibt bei Facebook selbst messbar positiver, wer mehr Negatives sieht, negativer.
Über dieses Experiment diskutierten Mitte 2014 Medien nach Veröffentlichung der Studie. Dabei kam immer wieder ein Argument pro Facebook-Experiment auf: „Wer die ungeschminkte Realität sucht, sollte Facebook nicht als alleinigen Informationskanal nutzen. Verzerrungen sind hier im wahrsten Sinn des Wortes programmiert.“ Vermutlich wegen dieser Haltung blieb die Studie in Deutschland wochenlang unbeachtet, obwohl SPIEGEL ONLINE vier Wochen vor dem Diskussion schon groß darüber berichtet hatte.
Drei Zutaten für die Ethik der Softwaremedien
Eine solche Argumentation bringt niemanden weiter. Dass Angebote im Netz viele Experimente laufen lassen, sagt nichts darüber aus, wie diese Experimente zu bewerten sind. Die Argumentation „Das ist ein A/B-Test. Es gibt viele A/B-Tests.“ impliziert, besagt aber nicht, dass alle A/B-Test gleich sind. Die entscheidenden Fragen sind ethische: Ist dieser eine konkrete Test in dieser Form gut? Ist der Einsatz richtig?
Um diese Fragen zu beantworten, braucht es drei Dinge:
- Bewusstsein, dass Handlungsalternativen existieren.
Natürlich kann ein A/B-Test anders aussehen, natürlich können Plattformen bestimmte Inhalte anders präsentieren. Menschen entscheiden, Menschen entwickeln Software, bisweilen entscheiden andere Menschen über die übergeordneten Ziele. Wenn Menschen entscheiden, gibt es immer Alternativen. -
Normen und Kriterien für das moralische Urteilen und Handeln in solchen Fällen.
Also zum Beispiel eine Norm wie „Wahrung der Menschenwürde und die wahrhaftige Unterrichtung der Öffentlichkeit sind oberste Gebote“. Und als Kriterium bei der Beurteilung von Einzelfällen: „Bei Veröffentlichungen, die ein Eigeninteresse der veröffentlichenden Plattform betreffen, muss dieses erkennbar sein.“ So hätte man zwei Anhaltspunkte, um einen A/B-Test zu beurteilen, der über Veröffentlichungen bestimmt. -
Öffentliche Diskussion über die Anwendung von Normen in konkreten Fällen.
Wenn nie klar benannt wird, ob und warum bestimmtes Verhalten von Publikumsverteilern im Netz gut oder schlecht ist, wird es wenig Problembewusstsein geben.
Derzeit ist das alles aus meiner Sicht ausbaubar. Anders als bei Presse und Rundfunk fehlen in der Debatte über diese Auswahlverfahren klare Konzepte von Verantwortung und moralische Leitlinien. Wie kann man bewerten, ob die Auswahl eines digitalen Vermittlers sinnvoll, gut, richtig ist?
Ein Selbstkontrollorgan wie der Presserat wäre ein Anfang, oder?