您现在的位置是:首页 >要闻 > 2020-12-03 12:34:04 来源:
人工智能的建议像人类一样具有影响力
宾夕法尼亚州立大学的一个研究小组认为,人工智能(AI)专家的建议可能与人类专家一样具有影响力。但是,无论是负面消息还是负面消息,人类和机器人的持证者都可能发现,当他们的消极意见与积极人群背道而驰时,他们将失去影响力。
在一项研究中,研究人员发现,当AI专家推荐用户应将哪张照片添加到其在线业务资料中时,生成推荐(或AI专家)的机器与人类专家一样具有影响力。但是,如果AI和人类专家的反馈意见是负面的,他们都不会发表意见,并且与其他用户的意见背道而驰,Donald P. Bellisario传播学院的媒体效应教授James S. Shyam Sundar说。 -媒体效果研究实验室主任。
桑达还是宾夕法尼亚州立大学计算与数据科学研究所(ICDS)的附属机构,他说研究结果可能表明,有时候人群的意见(也称为“潮流效应”)可以击败专家们的意见是否他们是人工智能或人类。他补充说,由AI驱动的专家和人类专家对业务资料图片的评价都能够影响用户对照片的评估。但是,如果专家不喜欢这张照片,而人群对此照片给予了积极评价,那么专家的影响力就会减弱。
该研究的第一作者,大众传播学博士王金平说,由于人们越来越多地使用社交媒体来寻找反馈,暗示专家意见和潮流影响的线索可能是影响决策的重要因素。
王说:“如今,在做出决定之前,我们经常转向在线平台征询其他人(例如我们的同行和专家)的意见。” “例如,当我们想知道要看什么电影或要上传到社交媒体平台的照片时,我们可以求助于这些资源。”
人工智能专家通常比人类专家便宜,他们也可以一天24小时工作,Wang建议,这可能使他们对在线业务有吸引力。
研究人员还发现,AI的团体身份(在这种情况下是指定的原籍)似乎并没有影响一个人对其建议的接受。但是,在人类专家中,来自相似国家的专家对照片提供了负面评价,其影响力往往比来自未知国家的人类专家对照片提供了相似的负面评价。
虽然表明团体地位的发现可能不会影响一个人是否看重AI专家的判断听起来像是个好消息,但Sundar认为AI专家可能仍在使用相同的文化偏见,但它们可能隐藏在编程和培训中数据。
Sundar说:“这可能是好事,也可能是坏事,因为这完全取决于您喂给AI的东西。” “尽管相信人工智能具有超越文化偏见的能力是件好事,但我们必须牢记,如果您对来自一种文化的图片进行AI培训,它们可能会在用于其他文化背景的图片上提供误导性建议。”
研究人员在即将出版的《人类行为计算机》中发表了他们的发现,并通过在线众包服务招募了353人参加了这项研究。随机选择参与者以查看网站的屏幕截图,该网站为用户提供了有关其业务资料照片的建议。与会者还被告知,除专家评分者外,该网站还允许其他平台用户提供反馈。屏幕快照代表研究人员研究的各种情况,包括专家评估者是人类还是AI,他们的反馈是正面还是负面,以及评估者的来源是否来自相似,不同或未知的国家身份。