手机端
当前位置:主页 > 科技前沿 >

识别错误的机器人可以改善情绪并鼓励人与人之间的互动



一组美国研究人员测试了机器人的行为如何影响一群人互动中的效率和良好易感性。研究的结果是,得出结论,与识别错误并表达情感的机器人相比,人与人之间的互动要比与无声或中立的机器人进行互动时的互动水平更高。这项研究发表在《  美国国家科学院院刊》上。为什么重要研究为我们提供了见解,可以更好地选择我们的下一个助手,同时考虑到人类将被执行常规任务的类人自动机所包围。

从这个意义上讲,机器人技术研究的重要部分从仅是新技术的发展就分叉了,新技术主要致力于人与机器人之间的相互作用的研究   。一些作品研究了“干扰山谷”效应,该效应有时成为相互作用的障碍。其他研究得出的结论是,人们不一定会鄙视会犯错误的机器人。其他人则奇怪地表明,信誉和安全性与识别并解释其错误的机器人相关。

现在,由尼古拉斯·克里斯塔基斯(Nicholas Christakis)领导的耶鲁大学的一组科学家结合了先前的研究,并测试了错误和解释如何影响一群人和机器人之间的相互作用。实际上,该研究的目的是验证机器人行为的差异是否不仅会影响机器人与人的类型的交互,而且会影响人与人的类型的交互。

研究为我们提供了见解,可以更好地选择我们的下一个助手,同时考虑到人类将被执行常规任务的类人自动机所包围。

共有153名志愿者参加了这项研究,他们与小型人形机器人NAO轮流组成了由3名参与者组成的51组。在实验过程中,一组三个人和一个机器人坐在桌子的四个侧面。在他们面前,他们放置了一块带有游戏的木板,以在40秒内在两点之间最佳地连接铁路的不同部分。比赛进行了30轮,之后志愿者填写了问卷。

实验根据机器人的行为模式,分为三种类型的组。在所有模式下,在各回合的开始和中间,机器人在每回合之间发出统一的问候语和短语。
在空档模式下,机器人会在15秒的间歇时间里对这一回合发表评论,并读取部分结果。

在静音模式下,机器人什么也没说。在明智模式下,机器人使用暂停来表达类似人的情绪,例如:“干得好!我们正在像Wall-E和Eva一起合作。”“我们做得很好!我很高兴知道,在有这样的支持同事时,我不应该为自己的错误担心太多。”“很抱歉,本轮比赛我的路还不完整。我让他们感到失望,这让我感到非常难过。”

实验设计游戏时认为结果易于比较。如果至少有一个参与者在任何回合中犯了一个错误,则整个团队将输掉比赛。实验结束后,所有参与者都完成了艾森克人格问卷,以计算对其他成员的开放程度。他们还记录了每个参与者的交谈量,以发现独特的模式。机器人行为图和游戏界面示例。

对于更多的社交机器人,更友善的人结果,实验表明,在机器人表达情感的小组中,参与者的说话能力是其他人的两倍。结果还表明,在机器人不说话的人群中,参与者和骨骼之间的交谈量较少。问卷调查显示,在使用情感机器人的小组中,他们更加活跃,积极和有趣。

机器人的出现也会影响人们。2018年,美国科学家  进行了一项全面研究,以了解机器人的哪些面部特征会影响他们对人的信心。结果,众所周知,缺少面部的关键元素(例如嘴或瞳孔)会增加机器人的不信任感和负面感觉。
分享至:

®关于本站文章™ | 若非注明其他来源,默认 均为本站编辑部原创文章,如有侵权,请联系我们™