Gruselige personalisierte Empfehlungen online
Woher weiß der das?!
- von Birte Vierjahn
- 19.08.2019
‚Wie hieß denn noch dieser Filmklassiker von Tarantino, der so durcheinander ist?‘, überlegen wir mit einem Freund. Und schon beim nächsten Einloggen in den Streaming-Dienst steht „Pulp Fiction“ ganz oben. Manchmal ist es geradezu gruselig, was künstliche Intelligenz über uns weiß. Wann und warum wir das so empfinden, damit haben sich Wissenschaftler der UDE beschäftigt. Ihr Fazit: (Zu wenig) Transparenz ist entscheidend.
Empfehlungssysteme sind online allgegenwärtig. Von uns meist nicht wahrgenommen, sollen sie helfen, aus Millionen Möglichkeiten das individuell passende Produkt schnell zu finden. Moderne Algorithmen und künstliche Intelligenz analysieren unsere Hotelbuchung, erfassen die Bewertungen, die wir für Produkte und Dienstleistungen online abgeben. Sie hören unserem Musik-Streaming zu und merken sich die Rezepte, die wir oft aufrufen.
Doch fast alle kennen diese zu gut passenden Vorschläge, die sich anfühlen, als könne der Rechner Gedanken lesen. Die sich irgendwie gruselig anfühlen. Doktorandin Helma Torkamaan von der Arbeitsgruppe „Interaktive Systeme“ hat selbst diese Erfahrung gemacht, obwohl sie die dahinterstehende Technik kennt und selbst einsetzt: „Ich habe mich mit einem Kollegen über eine Veröffentlichung unterhalten. Das Thema war mir neu, es interessierte mich aber. Kurz danach erschien genau dieser Beitrag ganz oben in meinen Empfehlungen.“
Gemeinsam mit ihrem Kollegen Catalin Barbu führte sie eine Studie durch, in der 171 Probanden Tipps zu Filmen, Hotels und medizinischen Themen gezeigt bekamen. Dabei wurde jeweils ausgewertet: Wie gut passt der Vorschlag? Ist der Grund dafür klar? Was empfinden wir, wenn wir eine gruselige Empfehlung sehen? Und was wären die Konsequenzen daraus?
Sie fanden heraus, dass Menschen sich besonders ausspioniert fühlen, wenn sie keine Verbindung zwischen einem ausgezeichnet passenden Vorschlag und ihrem vorherigen Verhalten online sehen: Es wird also gruselig, wenn die künstliche Intelligenz einen klaren Treffer landet und wir nicht wissen, warum. Tauschen Medien oder Plattformen sich hingegen nachvollziehbar untereinander aus, wird dies neutraler aufgenommen.
„Wir empfehlen daher, dem einzelnen die Kontrolle darüber zu geben, was personalisiert wird und er nachvollziehen kann, wie das geschieht“, fasst Barbu zusammen. Anderenfalls kann das Vertrauen in das Empfehlungssystem sinken oder der Nutzer lehnt die vorgeschlagenen Produkte sogar ab.
Originalpublikation:
Helma Torkamaan, Catalin-Mihai Barbu, and Jürgen Ziegler. 2019. How Can They Know That? A Study of Factors Affecting the Creepiness of Recommendations. In Thirteenth ACM Conference on Recommender Systems (RecSys ’19), September 16–20, 2019, Copenhagen, Denmark. ACM, New York, NY, USA, 5 pages.
Weitere Informationen:
Interactive Systems Research Group,
Helma Torkamaan, Tel. 0203/37 9-2276, helma.torkamaan@uni-due.de
Catalin-Mihai Barbu, Interactive Systems, Tel. 0203/37 9-1730,catalin.barbu@uni-due.de
Redaktion: Birte Vierjahn, Tel. 0203/37 9-2427, birte.vierjahn@uni-due.de