Zum Inhalt springen

Wie algorithmisch sortierte Intermediäre wirken

Wie algorithmisch sortierte Intermediäre wirken
Quelle: Pixabay, Inhaltslizenz, Alexas_Fotos

Vortrag, gehalten am 25.10.2017 auf der Konferenz “Medientage München 2017

Wie algorithmisch sortierte Intermediäre wirken
Quellen: https://algorithmenethik.de/2017/10/24/wie-algorithmisch-sortierte-intermediaere-wirken/

10 Kernthesen des Vortrages

  1. Algorithmisch sortierte Intermediäre sind relevant für die Meinungsbildung – aber derzeit nicht entscheidend (zumindest nicht für die Gesamtbevölkerung).
  2. Der graduelle Wandel der Nutzung sagt nichts über die Qualität des Strukturwandels im gesellschaftlichen Diskurs aus. Die ist immens.
  3. Die nach Reichweite wichtigsten Intermediäre (wie Youtube, Facebook) sind auf maximales Engagement optimiert (z.B. Interaktionsintensität, Nutzungsdauer)
  4. Die reichweitenstärksten Intermediäre sind gestaltet, um Verhalten ohne Nachdenken so wahrscheinlich wie irgend möglich zu machen.
  5. Die so begünstigten automatischen, impulsiven Reaktionen der Menschen sind eine Datengrundlage für algorithmische Relevanzbewertung.
  6. Werden Entscheidungen schnell, ohne Reflexion, ja „automatisch“ getroffen, treten bei Menschen eher kognitive Verzerrungen auf.
  7. Das hat Folgen für die Periodisierung von Inhalten: Emotional negativ aufgeladene Beiträge provozieren zum mehr Reaktionen als neutrale oder emotional positiv aufgeladene Beiträge.
  8. Schlussfolgerung: Medienvielfalt in der digitalen Öffentlichkeit ist auch die Vielfalt jener algorithmischen Prozesse, die Relevanz bewerten und Inhalte bei Intermediären priorisieren.
  9. Unter den reichweitenstärksten Intermediäre mangelt es an algorithmischen Vielfalt – die Systeme sind auf maximales Engagement und Verhalten ohne Nachdenken optimiert. 
  10. Alternative algorithmische Sortierung ist möglich – es fehlt an Vielfalt, weil Infrastruktur und Dienste auf Plattformen nicht getrennt sind.

In diesem Arbeitspapier (PDF) steht viele mehr über Leitwerte und Lösungsansätze.

Hier die im Vortrag erwähnten Quellen:

  • Backstrom, Lars. „News Feed FYI: A Window Into News Feed“. Facebook for Business, 6. August 2013.
  • Bakshy, Eytan, Solomon Messing, und Lada A Adamic. „Exposure to ideologically diverse news and opinion on Facebook“. Science 348, Nr. 6239 (2015): 1130–32. https://doi.org/10.1126/science.aaa1160.
  • Bessi, Alessandro. „Personality Traits and Echo Chambers on Facebook“. arXiv:1606.04721 [cs], 15. Juni 2016. http://arxiv.org/abs/1606.04721.
  • Bessi, Alessandro, Fabio Petroni, Michela Del Vicario, Fabiana Zollo, Aris Anagnostopoulos, Antonio Scala, Guido Caldarelli, und Walter Quattrociocchi. „Viral misinformation: The role of homophily and polarization“. In Proceedings of the 24th International Conference on World Wide Web, 355–356. ACM, 2015. http://dl.acm.org/citation.cfm?id=2745939.
  • Borgesius, Zuiderveen, Frederik J, Damian Trilling, Judith Moeller, Balázs Bodó, De Vreese, Claes H, und Natali Helberger. „Should We Worry About Filter Bubbles?“ SSRN Scholarly Paper. Rochester, NY: Social Science Research Network, 2. April 2016. https://papers.ssrn.com/abstract=2758126.
  • Ecke, Oliver. „Wie häufig und wofür werden Intermediäre genutzt?“ Berlin, 30. November 2016.
  • Eyal, Nir. Hooked: how to build habit-forming products. New York, New York: Portfolio/Penguin, 2014.
  • Facebook. „How News Feed Works“. Nonprofits on Facebook, 17. Juni 2016.
  • Facebook. „Werte des News Feed“. Facebook News Feed (blog), 28. Juni 2016. https://newsfeed.fb.com/values/.
  • Gabielkov, Maksym, Arthi Ramachandran, Augustin Chaintreau, und Arnaud Legout. „Social Clicks: What and Who Gets Read on Twitter?“ ACM SIGMETRICS/IFIP Performance 2016, 2016. https://hal.inria.fr/hal-01281190/file/sigm095-gabielkov.pdf.
  • Hasebrink, Uwe, Jan-Hinrik Schmidt, und Lisa Merten. „Wie fließen Intermediäre in die Meinungsbildung ein?“ Berlin, 30. November 2016.
  • Iyengar, Shanto, und Kyu S. Hahn. „Red media, blue media: Evidence of ideological selectivity in media use“. Journal of Communication 59, Nr. 1 (2009): 19–39.
  • Kahneman, Daniel. Schnelles Denken, langsames Denken. Übersetzt von Thorsten Schmidt. Siedler Verlag, 2012.
  • Malik, Momin M., und Jürgen Pfeffer. „Identifying Platform Effects in Social Media Data“, 2016. http://mominmalik.com/malik_icwsm2016.pdf.
  • Michael Seemann. „Digitaler Tribalismus und Fake News“, 29. September 2017. http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/.
  • Oremus, Will. „Who Controls Your Facebook Feed“. Slate, 3. Januar 2016.
  • Pariser, Eli. The filter bubble: what the Internet is hiding from you. New York: Penguin Press, 2011.
  • Quattrociocchi, Walter, Antonio Scala, und Cass R. Sunstein. „Echo chambers on facebook“, 2016. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2795110.
  • Schmehl, Karsten. „7 der 10 erfolgreichsten Artikel über Angela Merkel auf Facebook sind Fake News“. BuzzFeed. Zugegriffen 9. Oktober 2017.
  • Stieglitz, Stefan, und Linh Dang-Xuan. „Emotions and Information Diffusion in Social Media—Sentiment of Microblogs and Sharing Behavior“. Journal of Management Information Systems 29, Nr. 4 (2013): 217–48. https://doi.org/10.2753/MIS0742-1222290408.
  • ———. „Impact and Diffusion of Sentiment in Public Communication on Facebook“. ECIS 2012 Proceedings, Nr. August (2012). http://aisel.aisnet.org/ecis2012/98.
  • Trilling, Damian, Marijn van Klingeren, und Yariv Tsfati. „Selective Exposure, Political Polarization, and Possible Mediators: Evidence From the Netherlands“. International Journal of Public Opinion Research, 24. März 2016, edw003. https://doi.org/10.1093/ijpor/edw003.
  • Vicario, Michela Del, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley, und Walter Quattrociocchi. „The Spreading of Misinformation Online“. Proceedings of the National Academy of Sciences 113, Nr. 3 (19. Januar 2016): 554–59. https://doi.org/10.1073/pnas.1517441113.
  • Yochai Benkler, Robert Faris, Hal Roberts, und Ethan Zuckerman. „Breitbart-led right-wing media ecosystem altered broader media agenda“. Columbia Journalism Review, 3. März 2017. http://www.cjr.org/analysis/breitbart-media-trump-harvard-study.php.
  • Zafar, Muhammad Bilal, Isabel Valera, Manuel Gomez Rodriguez, und Krishna P. Gummadi. „Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment“. arXiv preprint arXiv:1610.08452, 2016. https://arxiv.org/abs/1610.08452.
  • Zhang, Cheng, und Si Chen. „Using Qualitative Feedback to Show Relevant Stories“, 1. Februar 2016.
  • Zollo, Fabiana, Alessandro Bessi, Michela Del Vicario, Antonio Scala, Guido Caldarelli, Louis Shekhtman, Shlomo Havlin, und Walter Quattrociocchi. „Debunking in a World of Tribes“. arXiv preprint arXiv:1510.04267, 2015. https://arxiv.org/abs/1510.04267.