Pressemitteilungen
Warum Barkeeper manche Signale ignorieren müssen (Nr. 182/2015)
Wenn ein Roboter als Thekenkraft arbeitet, muss er etwas machen, das für Maschinen untypisch ist: Er muss lernen, nicht auf alle Reize zu achten und Daten zu ignorieren. Zu diesem Ergebnis kommen Sprachwissenschaftler des Exzellenzclusters Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld in einer neuen Studie. Sie haben sich mit der Frage befasst, was ein Roboter von menschlicher Kommunikation verstehen muss, um Diskobesucher an der Theke zu bewirten. In einer früheren Studie hatten die Forschenden herausgefunden, dass Barkeeper vor allem auf Körpersprache achten, um zu erkennen, wer bedient werden will. In der neuen Untersuchung haben sich Testpersonen in die Rolle des Roboters versetzt und ihn durch die komplette Bestellung gesteuert. Die Studie ist jetzt im Online-Forschungsjournal „Frontiers in Psychology“ erschienen.
„Wir haben uns gefragt, ob solch eine roboterartige Beschreibung ausreicht, um überhaupt sozial handeln zu können“, sagt Jan de Ruiter. In einem Experiment bat sein Team die Versuchspersonen, sich in den Kopf eines Barkeeper-Roboters zu versetzen. Die Personen saßen an einem Computerbildschirm und erhielten eine Übersicht der Daten, die ein Roboter am Tresen gesammelt hat: Sichtbarkeit des Kunden, Nähe zur Bar, Position an der Bar, Position des Gesichts, Winkel des Körpers und Winkel des Gesichts zum Roboter. Die Daten stammen aus einem Versuchsaufbau mit dem Barkeeper-Roboter James. An einem Tresen in einem Labor schenkte er Getränke an eine Reihe von Kunden aus. Die Übersicht zeigt auch Sätze des Kunden an („Ich hätte gerne ein Glas Wasser“) und gibt an, mit welcher Wahrscheinlichkeit die Sprachverarbeitung des Roboters diese korrekt erkannt hat. Den Testpersonen wird gleichzeitig das Verhalten von zwei Kunden angezeigt. Die Testpersonen mussten wie in einem Computer-Rollenspiel auf die Handlungen der Kunden reagieren. „Sie sahen nur die Beschreibung des Roboters und mussten sich ohne Videoaufnahmen orientieren“, sagt Jan de Ruiter. Schritt für Schritt wurde das Verhalten der Kunden wiedergegeben, und Schritt für Schritt musste die Testperson überlegen, was sie als Roboter getan hätte.
Wenn eine Testperson zum Beispiel anhand der Übersicht feststellte, dass Kunde 1 nah an der Theke steht und sein Körper zur Bar zeigt, musste die Testperson entscheiden, wie sie sich als Roboter verhalten würde. Dafür stand ihr ein Repertoire von Roboter-Handlungen zur Verfügung: nach dem Getränkewunsch zu fragen („Was möchten Sie trinken?“), den Kopf zu drehen, ein Getränk zu servieren – oder nichts zu tun. Im nächsten Schritt sahen die Versuchspersonen die Reaktionen der Kunden. Nun waren sie wieder an der Reihe zu handeln. Dieses Zusammenspiel ging weiter, bis entweder das Getränk serviert oder die Bestellung abgebrochen wurde. Das Besondere: Die Testpersonen taten nur so, als ob sie mit den Kunden interagierten. Ihnen wurden Aufzeichnungen des Kundenverhaltens aus dem früheren Feldversuch vorgespielt, in dem der Roboter die Personen bediente.
„Die neue Untersuchung bestätigt unsere früheren Ergebnisse: Kunden möchten bestellen, wenn sie nahe an der Theke stehen und zum Barkeeper schauen. Es spielt dafür keine Rolle, ob sie sprechen“, sagt Sebastian Loth, ebenfalls Autor der Studie. „Die Testpersonen in unserem Experiment haben in der Situation ebenfalls auf Sprache verzichtet. In der Rolle des Roboters haben sie sich zum Kunden gewandt und ihn angesehen. Dieser Blickkontakt ist der visuelle Handschlag, der gewöhnlich zur Getränke-Bestellung führt“, sagt Loth.
Steht fest, dass der Kunde bestellen will, verliert die Körpersprache der Studie zufolge an Bedeutung. „Dann ist praktisch nur die Sprache des Kunden und keine andere Information wichtig“, sagt Loth. Wenn beispielsweise die Kamera den Kunden verloren hat und die Übersicht ihn als „nicht sichtbar“ anzeigt, dann ließen die Testpersonen diese visuelle Information außer acht. Sie sprachen weiter, servierten das Getränk oder fragten noch einmal nach. „Ein Barkeeper-Roboter muss also Daten ignorieren können.“ In der Praxis sei aber das Gegenteil der Fall: „Wenn eine Person nicht zu sehen ist, nimmt der Roboter James an, dass der Gast verschwunden ist und beginnt das Gespräch mit einem anderem Kunden“, sagt Loth. „Unsere Testpersonen waren schneller und effektiver als der Roboter, weil sie sich von dem Kamerafehler nicht irritieren ließen.“
Originalveröffentlichung:
Sebastian Loth, Katharina Jettka, Manuel Giuliani and Jan de Ruiter: Ghost-in-the-Machine reveals human social signals for human–robot interaction, http://dx.doi.org/10.3389/fpsyg.2015.01641, online erschienen am 4. November 2015
Weitere Informationen im Internet:
„Zum Forschen in die Kneipe“ (Pressemitteilung vom 09.09.2013): http://ekvv.uni-bielefeld.de/blog/pressemitteilungen/entry/zum_forschen_in_die_kneipe
EU-Projekt „James“ (Joint Action in Multimodal Embodied Systems – Gemeinschaftliches Handeln in multimodalen Systemen mit Körpern): http://www.james-project.eu
Kontakt:
Prof. Dr. Jan de Ruiter, Universität Bielefeld
Fakultät für Linguistik und Literaturwissenschaft
Telefon: 0521 106-5310
E-Mail: jan.deruiter@uni-bielefeld.de
Dr. Sebastian Loth, Universität Bielefeld
Fakultät für Linguistik und Literaturwissenschaft
Telefon: 0521 106-3669
E-Mail: sebastian.loth@uni-bielefeld.de