© Universität Bielefeld

uni.aktuell-Archiv

Warum Barkeeper manche Signale ignorieren müssen

Veröffentlicht am 13. November 2015, 10:22 Uhr
Kneipen-Kommunikationsforschung mit Roboter James an der Universität Bielefeld geht weiter

Wenn ein Roboter als Thekenkraft arbeitet, muss er etwas machen, das für Maschinen untypisch ist: Er muss lernen, nicht auf alle Reize zu achten und Daten zu ignorieren. Zu diesem Ergebnis kommen Sprachwissenschaftler des Exzellenzclusters Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld in einer neuen Studie. Sie haben sich mit der Frage befasst, was ein Roboter von menschlicher Kommunikation verstehen muss, um Diskobesucher an der Theke zu bewirten. In einer früheren Studie hatten die Forschenden herausgefunden, dass Barkeeper vor allem auf Körpersprache achten, um zu erkennen, wer bedient werden will. In der neuen Untersuchung haben sich Testpersonen in die Rolle des Roboters versetzt und ihn durch die komplette Bestellung gesteuert. Die Studie ist jetzt im Online-Forschungsjournal „Frontiers in Psychology“ erschienen.


Testpersonen versetzten sich am Computerbildschirm in die Rolle des Barkeeper-Roboters James. Foto: CITEC/Universität Bielefeld
Testpersonen versetzten sich am Computerbildschirm in die Rolle des Barkeeper-Roboters James. Foto: CITEC/Universität Bielefeld
In einer Kooperation entwickeln Forscherinnen und Forscher aus Bielefeld, Edinburgh (Großbritannien), Kreta (Griechenland) und München einen Roboter, der Getränke an einer Bar serviert. Der Roboter heißt James. Die Universität Bielefeld ist über die Arbeitsgruppe Psycholinguistik von Professor Dr. Jan de Ruiter an der Kooperation beteiligt. „Wir bringen James bei, zu erkennen, wann ein Kunde bedient werden will“, sagt Jan de Ruiter. Ein Roboter erkennt nicht automatisch, welches Verhalten anzeigt, ob ein sich nähernder Kunde bedient werden will. Ist es die Nähe des Kunden zur Bar? Der Winkel, in dem er sich zur Bar dreht? Oder ist es für die Bestellung wichtiger, dass die Person spricht? Der Roboter nimmt jeden Teil des Verhaltens gesondert und gleichrangig wahr. Wie in einer Tabelle listet er sich die verschiedenen Elemente auf (zum Beispiel „NäheZurBar: Nein“, „Sprache: Nein“). Sobald sich etwas ändert, hält der Roboter das fest („NäheZurBar: Ja“, „Sprache: Ja“).

„Wir haben uns gefragt, ob solch eine roboterartige Beschreibung ausreicht, um überhaupt sozial handeln zu können“, sagt Jan de Ruiter. In einem Experiment bat sein Team die Versuchspersonen, sich in den Kopf eines Barkeeper-Roboters zu versetzen. Die Personen saßen an einem Computerbildschirm und erhielten eine Übersicht der Daten, die ein Roboter am Tresen gesammelt hat: Sichtbarkeit des Kunden, Nähe zur Bar, Position an der Bar, Position des Gesichts, Winkel des Körpers und Winkel des Gesichts zum Roboter. Die Daten stammen aus einem Versuchsaufbau mit dem Barkeeper-Roboter James. An einem Tresen in einem Labor schenkte er Getränke an eine Reihe von Kunden aus. Die Übersicht zeigt auch Sätze des Kunden an („Ich hätte gerne ein Glas Wasser“) und gibt an, mit welcher Wahrscheinlichkeit die Sprachverarbeitung des Roboters diese korrekt erkannt hat. Den Testpersonen wird gleichzeitig das Verhalten von zwei Kunden angezeigt. Die Testpersonen mussten wie in einem Computer-Rollenspiel auf die Handlungen der Kunden reagieren. „Sie sahen nur die Beschreibung des Roboters und mussten sich ohne Videoaufnahmen orientieren“, sagt Jan de Ruiter. Schritt für Schritt wurde das Verhalten der Kunden wiedergegeben, und Schritt für Schritt musste die Testperson überlegen, was sie als Roboter getan hätte.

Wenn eine Testperson zum Beispiel anhand der Übersicht feststellte, dass Kunde 1 nah an der Theke steht und sein Körper zur Bar zeigt, musste die Testperson entscheiden, wie sie sich als Roboter verhalten würde. Dafür stand ihr ein Repertoire von Roboter-Handlungen zur Verfügung: nach dem Getränkewunsch zu fragen („Was möchten Sie trinken?“), den Kopf zu drehen, ein Getränk zu servieren – oder nichts zu tun. Im nächsten Schritt sahen die Versuchspersonen die Reaktionen der Kunden. Nun waren sie wieder an der Reihe zu handeln. Dieses Zusammenspiel ging weiter, bis entweder das Getränk serviert oder die Bestellung abgebrochen wurde. Das Besondere: Die Testpersonen taten nur so, als ob sie mit den Kunden interagierten. Ihnen wurden Aufzeichnungen des Kundenverhaltens aus dem früheren Feldversuch vorgespielt, in dem der Roboter die Personen bediente.

„Die neue Untersuchung bestätigt unsere früheren Ergebnisse: Kunden möchten bestellen, wenn sie nahe an der Theke stehen und zum Barkeeper schauen. Es spielt dafür keine Rolle, ob sie sprechen“, sagt Sebastian Loth, ebenfalls Autor der Studie. „Die Testpersonen in unserem Experiment haben in der Situation ebenfalls auf Sprache verzichtet. In der Rolle des Roboters haben sie sich zum Kunden gewandt und ihn angesehen. Dieser Blickkontakt ist der visuelle Handschlag, der gewöhnlich zur Getränke-Bestellung führt“, sagt Loth.

Steht fest, dass der Kunde bestellen will, verliert die Körpersprache der Studie zufolge an Bedeutung. „Dann ist praktisch nur die Sprache des Kunden und keine andere Information wichtig“, sagt Loth. Wenn beispielsweise die Kamera den Kunden verloren hat und die Übersicht ihn als „nicht sichtbar“ anzeigt, dann ließen die Testpersonen diese visuelle Information außer acht. Sie sprachen weiter, servierten das Getränk oder fragten noch einmal nach. „Ein Barkeeper-Roboter muss also Daten ignorieren können.“ In der Praxis sei aber das Gegenteil der Fall: „Wenn eine Person nicht zu sehen ist, nimmt der Roboter James an, dass der Gast verschwunden ist und beginnt das Gespräch mit einem anderem Kunden“, sagt Loth. „Unsere Testpersonen waren schneller und effektiver als der Roboter, weil sie sich von dem Kamerafehler nicht irritieren ließen.“

Sebastian Loth (l.) und Jan de Ruiter zeigen in ihrer Studie, wie Barkeeper auch in unübersichtlichen Situationen die Bestellungen ihrer Kunden aufnehmen. Foto: CITEC/Universität Bielefeld

Sebastian Loth (l.) und Jan de Ruiter zeigen in ihrer Studie, wie Barkeeper auch in unübersichtlichen Situationen die Bestellungen ihrer Kunden aufnehmen. Foto: CITEC/Universität Bielefeld

Originalveröffentlichung:
Sebastian Loth, Katharina Jettka, Manuel Giuliani and Jan de Ruiter: Ghost-in-the-Machine reveals human social signals for human–robot interaction, http://dx.doi.org/10.3389/fpsyg.2015.01641, online erschienen am 4. November 2015

Weitere Informationen im Internet:
„Zum Forschen in die Kneipe“ (Pressemitteilung vom 09.09.2013): http://ekvv.uni-bielefeld.de/blog/pressemitteilungen/entry/zum_forschen_in_die_kneipe
EU-Projekt „James“ (Joint Action in Multimodal Embodied Systems – Gemeinschaftliches Handeln in multimodalen Systemen mit Körpern): http://www.james-project.eu

Gesendet von NLangohr in Forschung & Wissenschaft
Tags: homepage
Kommentare:

Senden Sie einen Kommentar:
Kommentare sind ausgeschaltet.

Kalender

« Mai 2024
MoDiMiDoFrSaSo
  
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
  
       
Heute

Kontakt

Universität Bielefeld
Medien & News
Postfach 10 01 31
33501 Bielefeld

E-Mail:
medien@uni-bielefeld.de

Homepage Medien & News