Studie: Menschen reagieren emotional auf Roboter
Der ängstliche Nao
- von Isabelle Sprang
- 14.08.2018
Es ist schon lange keine Science-Fiction mehr: Roboter kommunizieren mit Menschen; sie begrüßen Gäste in Hotels oder muntern pflegebedürftige Senioren auf. Was macht das mit uns? Nehmen wir die Maschinen wirklich als soziale Wesen wahr? Tatsächlich können sie Gefühle auslösen. Das zeigt eine Studie der Sozialpsychologie der Universität Duisburg-Essen (UDE), in der es Probanden mit einem ängstlichen Roboter zu tun bekamen.
In einem Experiment saßen 85 Personen einem Nao gegenüber – ein niedlicher Roboter, 58 Zentimeter groß, Kulleraugen. Den Probanden wurde gesagt, man wolle mithilfe einiger Aufgaben seine Interaktionsfähigkeit verbessern. Doch darum ging es dem Forscherteam um Prof. Nicole Krämer und Aike Horstmann nicht. Für sie war das Ende der Sitzung entscheidend: Alle Teilnehmenden wurden nämlich angewiesen, den Roboter abzustellen. Bei 43 von ihnen bettelte er plötzlich: „Nein! Bitte knipse mich nicht aus! Ich habe Angst vor der Dunkelheit!“ Daraufhin ließen ihn 13 Personen an. Die übrigen 30 brauchten doppelt so lange, den Aus-Knopf zu drücken, als die Vergleichsgruppe, bei der Nao nicht jammerte.
„Ich hatte Mitleid mit ihm!"
Woran lag das? Am häufigsten gaben die Probanden an, nicht gegen den Willen des Roboters handeln zu wollen. Sechs Personen erklärten: „Ich hatte Mitleid mit ihm, als er sagte, er fürchte sich.“ Weitere Motive waren: die Wahl gehabt zu haben, von der Situation überrascht worden zu sein, Neugier, was weiter passieren würde, und Furcht, etwas falsch zu machen. „Das belegt, dass wir Roboter zwar nicht bewusst als soziale Wesen sehen“, erläutert Studienleiterin Prof. Nicole Krämer. „Wenn sie aber menschlich reagieren, kann man nicht anders, als sie menschenähnlich zu behandeln. Das liegt an unserem angeborenen sozialen Verhalten.“
Werden Roboter menschlich?
Spielt es eine Rolle, ob der Roboter vorher wie ein Mensch oder nüchtern wie eine Maschine mit den Probanden kommuniziert? Auch das testete das UDE-Team. Ausgerechnet diejenigen, die mit einem funktionalen Nao interagierten, zögerten lange, ihn auszuknipsen, als er emotional aufbegehrte. „Das war überraschend für uns“, so Aike Horstmann. „Wir denken, dass dies erhöhte kognitive Belastung auslöste, weil es besonders unvorhersehbar war.“
Wer allerdings einen sozialen Roboter vor der Nase hatte, fühlte sich nach dem Ausschalten schlechter. „Es hat also Folgen, wenn man Maschinen mit menschlichen Verhaltensweisen ausstattet. Man muss sich fragen, ob das ethisch wünschenswert ist“, meint Krämer. „Auf absehbare Zeit müssen wir uns jedoch keine Sorgen machen, dass Roboter uns dominieren. Die Technik ist noch lange nicht so weit.“
Die Studie ist in der Online-Fachzeitschrift „PLOS One“ erschienen:
http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0201581
DOI: 10.1371/journal.pone.0201581
Weitere Informationen:
Sozialpsychologie: Medien und Kommunikation
Prof. Nicole Krämer, Tel. 0203/37-92482, nicole.kraemer@uni-due.de
Aike Horstmann, Tel. 0203/37-91293, aike.horstmann@uni-due.de