您现在的位置是:首页 >要闻 > 2020-12-11 11:30:19 来源:

AI代理使用日常语言提供理由以解释其行为

导读 佐治亚理工学院的研究人员与康奈尔大学和肯塔基大学合作开发了一种人工智能(AI)代理,该代理可以实时自动生成自然语言解释,以传达其行为背
佐治亚理工学院的研究人员与康奈尔大学和肯塔基大学合作开发了一种人工智能(AI)代理,该代理可以实时自动生成自然语言解释,以传达其行为背后的动机。该工作旨在使与AI代理或机器人互动的人放心,该代理正在正确执行任务,并且可以解释错误或错误行为。

该代理还使用非专家可以理解的日常语言。研究人员称之为解释,或称“理性”,旨在与人们建立联系,并激发他们对可能使用AI机器或在社交场合与他们互动的人的信任。

Upol Ehsan博士说:“如果要使AI的力量民主化,那么任何人都必须能够使用AI,无论他们的技术水平如何。” 乔治亚理工学院互动计算学院的学生,首席研究员。

“随着AI渗透到我们生活的方方面面,对以人为中心的AI设计的独特需求使黑盒AI系统可以为日常用户所解释。我们的工作迈出了形成性的一步,旨在理解基于语言的解释的作用以及如何人类会感知到它们。”

该研究得到海军研究办公室(ONR)的支持。

研究人员开展了一项参与研究,以确定他们的AI代理是否可以提供模仿人类反应的理论依据。观众观看了AI代理玩电子游戏Frogger,然后按照每个人对AI的动作描述得如何好坏的顺序排列了三个屏幕上的理由。

在每个动作的三个匿名理由中,一个是人为产生的反应,AI代理反应和一个随机产生的反应,参与者首先喜欢人为产生的理由,而第二个是人工智能产生的反应。

Frogger为研究人员提供了在“顺序决策环境”中训练AI的机会,这是一项重大的研究挑战,因为代理商已经做出的决策会影响未来的决策。因此,根据研究人员的说法,很难向专家解释推理链,甚至在与非专家交流时更是如此。

观众们明白了青蛙蛙的目的,就是使青蛙安全回家,而不会被移动的车辆撞到或淹死在河中。向上,向下,向左或向右移动的简单游戏机制,使参与者可以查看AI所做的事情,并评估屏幕上的基本原理是否明确说明了该移动的合理性。

观众根据以下各项判断其合理性:

信心-人们对AI执行任务充满信心

像人一样-看起来像是由人创造的

充分的理由-充分证明所采取的行动是合理的

可理解性-帮助人们了解AI的行为

参与者排名较高的AI产生的理由是那些表现出对环境条件和适应性的认可,以及传达了对即将发生的危险的意识并为之计划的理由。发现仅表明环境明显或特征错误的冗余信息具有负面影响。