AE15 - Blog
Neuer Artikel im International Journal of Social Robotics
Ab sofort ist das Paper "Never trust anything that can think for itself, if you can't control its privacy settings: The influence of a robot's privacy settings on users' attitudes and willingness to self-disclose" von Julia Stapels, Angelika Penner, Niels Diekmann und Friederike Eyssel beim International Journal of Social Robotics online verfügbar: https://rdcu.be/dmMGF.
Zusammenfassung: Wenn es um die Nutzung von sozialen Robotern geht, stehen die volle Funktionalität des Roboters und die Privatsphäre von Nutzer*innen häufig im Konflikt, da bei hoher Privatsphäre-Einstellung Funktionen des Roboters eingeschränkt werden könnten, während eine volle Funktionalität oft erfordert, dass die Privatsphäre-Einstellungen mild eingestellt sind. In dem Paper untersuchten wir einerseits strenge vs. milde Privatsphäre-Einstellungen und andererseits selbstgewählte vs. vorgegebene Privatsphäre-Einstellungen. Dabei fanden wir heraus, dass strikte vs. milde Privatsphäre-Einstellungen Vertrauen und die Bereitschaft zur Selbstoffenbarung erhöhten, sowie subjektive Ambivalenz reduzierten. Dagegen führten selbstgewählte vs. vorgegebene Privatsphäre-Einstellungen zu mehr Mögen des Roboters, zu mehr Kontaktintentionen und zu einer größeren Bereitschaft über persönlichere Themen zu sprechen.
______________________________________________
The paper "Never trust anything that can think for itself, if you can't control its privacy settings: The influence of a robot's privacy settings on users' attitudes and willingness to self-disclose" by Julia Stapels, Angelika Penner, Niels Diekmann and Friederike Eyssel is now available online at the International Journal of Social Robotics: https://rdcu.be/dmMGF.
Summary: When it comes to the use of social robots, the full functionality of the robot and the privacy of users are often in conflict, as strict privacy settings might limit functions of the robot, while full functionality often requires that privacy settings are lenient. In the paper, we investigated strict vs. lenient privacy settings on the one hand, and self-chosen vs. preset privacy settings on the other hand. We found that strict vs. lenient privacy settings increased trust and willingness to self-disclose, and reduced subjective ambivalence. In contrast, self-chosen vs. preset privacy settings led to more liking of the robot, more contact intentions, and greater willingness to talk about more personal topics.