您现在的位置是:首页 >要闻 > 2020-12-01 16:22:45 来源:

研究人员检查AI是否有自己的想法

导读 大多数人在个人和职业生活中每天都会遇到人工智能(AI)。人们不假思索,就要求Alexa将苏打水添加到购物清单中,使用Google Maps驾驶,并在S

大多数人在个人和职业生活中每天都会遇到人工智能(AI)。人们不假思索,就要求Alexa将苏打水添加到购物清单中,使用Google Maps驾驶,并在Snapchat中添加过滤器-所有AI使用示例。但是,密苏里州科技大学的研究人员正在研究所谓的AI具有“思想”的证据,这将显示一个人何时将AI行为视为道德上的错误。

密苏里州科学与技术学院心理学科学助理教授丹尼尔·尚克(Daniel Shank)博士建立在一种理论上,即如果人们认为实体具有思想,那么这种观点将决定他们赋予它什么精神权利和责任。他的研究将显示一个人何时将AI行为视为道德上的错误,并可能有助于减少智能设备的拒绝并改善设备。

尚克说:“我想了解人们认为机器拥有思想的社会互动以及他们认为机器是道德主体或受害者的情况。”

Shank的行为科学工作将这一理论应用于AI代理和机器人等先进机器。

“当我们确实意识到机器背后的思想时,就会告诉我们有关技术,其功能和行为的一些信息,但最终它们会揭示出更多有关人类的信息,” Shank解释说。“在这些相遇中,我们从情感上处理了非人类技术与有思想之间的鸿沟,从本质上感觉到了我们机器思维的方式。”

尚克(Shank)正在进行一项为期三年的项目,该项目由美国陆军研究办公室(ARO)资助,旨在更好地理解人们对AI的看法。ARO是美国陆军作战能力发展司令部陆军研究实验室的组成部分。

在研究的第一年,他定性描述了人们与AI之间的个人互动,这些互动涉及道德上的错误或涉及认为AI有“很多头脑”的人。Shank的研究发现,有31%的受访者报告了个人信息泄露事件,而20%的受访者报告了不良内容暴露事件; Shank认为,这两者都是由于频繁在个人和家用设备上发生而被报告的。

ARO社会与行为科学项目经理Lisa Troyer博士说:“尚克博士的工作通过将长期的认知和情感社会心理学理论与人与人互动研究相结合,从而产生了对人与人团队合作的新认识。” 。“他的研究已经产生了关于自主代理人的道德观念的作用以及这些观念如何影响有效的人与代理团队的科学见解。”

目前在研究的第二年,他正在进行受控实验,在该实验中,人工智能的思维水平发生了变化,然后人工智能成为了道德行为的实施者或受害者。Shank希望这将使他能够在AI与人类之间进行更直接的比较。到目前为止,他的研究发现,尽管诸如社交机器人之类的某些AI可以承担更大的社会角色,但人们对AI在这些角色中的接受程度增强了人们对思维和情绪反应的感知。

他的研究的最后阶段将使用调查和模拟来了解道德水平是否可以通过人们对AI的印象来预测。

尚克说:“与网络连接的技术,经过大数据培训并在各种社交网络平台上运行的技术现在在我们的文化中很普遍。” “这些技术,无论它们是否是适当的人工智能,在人们的个人生活中都是例行的,但并不是对这些技术的每次使用都会使我们将其视为有思想的人。”

美德或罪恶是否可以归因于AI的问题仍然取决于人类是否愿意将机器判断为具有道德品格。随着对AI伦理学和心理学的研究不断发展,正在考虑诸如AI权利和AI道德之类的新主题。