您现在的位置是:首页 >人工智能 > 2021-04-23 08:53:23 来源:

人机器人信任建模的概念框架

导读 宾夕法尼亚州立大学,麻省理工学院和佐治亚理工学院的研究人员最近开发了一个概念框架来模拟人机信任现象。他们的框架在ACM数字图书馆发表

宾夕法尼亚州立大学,麻省理工学院和佐治亚理工学院的研究人员最近开发了一个概念框架来模拟人机信任现象。他们的框架在ACM数字图书馆发表的一篇论文中概述,使用受博弈论启发的计算表示来表示信任,这是一种在社会心理学中使用理论定义的概念。在专业和个人环境中,信任在人际交往中起着关键作用。当一个人信任另一个人时,他们可能会决定做一些让他们处于相当大风险的事情,并坚信另一个人的行为会在某种程度上减轻这种风险。

在定义信任方面,许多研究人员认为,这种情况会导致个人易受伤害,而这种脆弱性则取决于他人的行为,动机或行为。最近研究背后的三位研究人员Alan R. Wagner,Paul Robinette和Ayanna Howard想要创建一个可用于模拟人与机器人之间人际信任的框架。

“我们有兴趣开发知道什么时候可以信任人类的机器人,了解什么情况需要信任,并吸引人类的适当信任,”Robinette解释说。“最初,我们受到研究的推动,有时人们会在机器人要求时做些奇怪的事情,例如丢弃昂贵的教科书并在盆栽植物上倒橙汁。人类也会把自己放在机器人手中的风险(例如自动驾驶汽车,架空飞行的无人驾驶飞机,机器人保安等)。因此,我们希望开发一个框架,让机器人能够理解与人类的信任关系。“

由瓦格纳及其同事开发的概念框架产生了几个与人机器人信任相关的可检验假设。在他们的研究中,研究人员检查了这些产生的假设并进行了一系列实验,收集了支持其框架并与之相冲突的证据。

“信任框架始于Alan的研究,该研究以计算机和机器人可以利用的方式定义信任,”Robinette说。

在他之前的工作中,瓦格纳将情境信任定义为“由委托人持有的一种信念,即受托人将以在委托人将其结果置于风险中的情况下减轻委托人风险的方式行事”。他的定义主要关注特定情况下涉及的风险,同时强调人/机器人将采取行动降低对方/机器人风险的信念。

“我们的框架提供了构成信任情况的标准,并给出了几类不需要信任的情况,例如,对于委托人没有风险或者由于某种原因无法减轻风险的情况,”Robinette说。“通过这个框架,机器人可以自己评估它所处的情况是否需要信任,然后采取适当的行动。”

研究人员在一系列测试和实验中测试了他们的框架产生的假设。例如,在一个实验中,他们向一组人类参与者展示了信任或不信任别人的情景,然后问他们选择这两个选项中的哪一个。与会者在很大程度上同意其框架产生的信任条件。

研究人员进行了几项其他实验,评估了其概念框架产生的假设的准确性。其中一些收集了支持这些假设的证据,而少数证据产生了相互矛盾的结果。

“我认为从这项工作中得到的最有意义的发现是,我们在许多不同背景的参与者的研究中找到了相当多的支持证据,”Robinette说。“这意味着信任框架可以在大多数情况下使用,让机器人能够更好地理解周围的人为什么像他们一样行动。机器人甚至可以使用这个框架来引导人类进入风险较低的情况,例如认识到一个人对机器人过于信任,也许是为了做一些没有编程的事情,并告诉他们他们的错误。“

Wagner和他的同事设计的框架可以应用于涉及人类和机器人之间信任的各种情况。但是,在某些情况下,框架的假设不够准确,例如当人们被要求在看似紧急情况的情况下信任机器人时。

尽管如此,这些发现仍然很有价值,因为它们揭示了人们发现难以信任机器人的特定领域。未来的研究可以仔细研究参与者为何做出这些选择以及阻止他们信任机器人的原因,同时还探索机器人工程师如何提高机器人的安全性。

“Alan和Ayanna一直致力于将这项研究扩展到医疗机器人领域,”Robinette说。“我相信艾伦还有一个项目来调查紧急疏散机器人及其与人们的关系。我最近一直致力于人机组合,并计划将这种信任框架应用于人类与机器人之间的关系。与之合作。“