您现在的位置是:首页 >综合 > 2021-06-17 07:46:59 来源:
科技信息: 当自动驾驶汽车驾驶引发伦理问题
21世纪是科技高速发展的时代,互联网渐渐走入人们的生活。互联网就像一张网。把我们紧紧联系起来,现在的衣食住行都离不开互联网科技,下面分享一篇关于互联网科技的文章给大家。
无人驾驶汽车将成为日常高速公路旅行的一部分。除了他们的技术和安全报告之外,三位研究人员还提出了一个新的问题,即政策制定者和供应商需要探讨的道德问题。
让-弗朗索瓦·博内芬(Jean-Francois Bonnefon)、阿齐姆·沙里夫(Azim Shariff)和伊亚德·拉万(Iyad Rahwan)的《自动驾驶汽车需要实验伦理:我们准备好接受实用主义汽车了吗?》(Autonomous Vehicles Need Experimental Ethics: Are We Ready for Cars?)他们来自图卢兹经济学院、俄勒冈大学和麻省理工学院。
我们被告知,自动驾驶汽车能够防止大量的交通事故和死亡。然而,最近的一些讨论指出,无人驾驶汽车的下一章将更加复杂。专家们表示,当自动驾驶汽车首次出现在道路上时,安全状况可能会有所不同,因为人们不一定会对自动驾驶司机使用的大量警告做好准备。
现在,有三名研究人员正在考虑这些问题。也就是说,自动驾驶汽车的出现引发了道德问题。他们关于arXiv的论文提出了涉及不可避免的伤害的交通情况。
问题在于如何评估不同算法的相对道德——谁会受到伤害,谁会幸免。(a)汽车可以停留在课程和杀死几个行人,或转向并杀死一个路人(b)汽车可以停留在课程和杀死一个行人,或转向并杀死它的乘客(c)汽车可以停留在课程和杀死几个行人,或转向并杀死它的乘客。
乘客被杀是为了救其他人吗?有人可能会认为《麻省理工学院技术评论》(MIT Technology Review)称之为“算法道德的不可能的伦理困境”。
作者在摘要中写道:“定义引导AVs应对此类道德困境的算法是一项艰巨的挑战。特别是,这些道德算法需要实现三个可能不兼容的目标:一致性、不引起公愤、不打击买家。我们认为,为了实现这些目标,制造商和监管机构将需要心理学家将实验道德的方法应用到涉及AVs和不可避免的伤害的情况下。”
《麻省理工学院技术评论》(MIT Technology Review)继续写道:“当孩子们在车上时,是否应该做出不同的决定,因为他们都比成年人有更长的时间等着他们,而且一开始在车里的积极性更低?”如果一个制造商提供了不同版本的道德算法,而买家明知选择了其中一个,那么买家是否应该为算法决策的有害后果负责?”
可以肯定的是,“弄清楚如何建造合乎道德的自主机器,是当今人工智能领域最棘手的挑战之一,”作者写道。“当我们即将赋予数百万辆汽车自权时,严肃对待算法的道德问题就变得前所未有的紧迫。”
作者认为,答案最有可能来自使用实验伦理协议的调查。他们写道,总的来说,实验道德领域为人们了解道德和法律标准提供了关键的洞见,而这些标准正是人们对自动驾驶算法的期望。
研究人员在6月份进行了三次在线调查。这些研究是在Qualtrics调查软件上编写的,并从Mechanical Turk平台招募参与者,报酬为25美分。
结果吗?《麻省理工学院技术评论》(MIT Technology Review)表示,如果可以预测的话,它们是“有趣的”。总的来说,人们认为自动驾驶汽车应该被编程以最小化死亡人数。”
作者说:“三次调查显示,受访者可能会对自动驾驶汽车有所准备,因为它们会在不可避免的伤害情况下做出功利的道德决定。”在某种程度上,AV甚至可以牺牲它的主人来拯救路上其他个人的生命。”
Dave Gershgorn在《大众科学》上发表了他对这项研究的看法,他写道:“当然,无人驾驶汽车可以减少高达90%的交通死亡事故。就像道德领域本身一样,剩下的10%发生了什么还有待讨论。”
进一步探索
自动驾驶汽车(AVs)的广泛应用有望大大减少交通事故的数量。然而,有些事故是不可避免的,因为有些情况下,AVs必须在两害相权取其轻。例如,在马路上从行人身上碾过,或从路边的行人身上碾过;或者选择是否从一群行人身上碾过,或者开车撞到墙上以牺牲乘客。定义引导AVs面对此类道德困境的算法是一个艰巨的挑战。特别是,这些道德算法需要实现三个可能不兼容的目标:一致性、不引起公愤、不打击买家。我们认为,为了实现这些目标,制造商和监管机构将需要心理学家将实验伦理学的方法应用于涉及到AVs和不可避免的伤害的情况。为了说明我们的主张,我们报告了三个调查,显示外行人对实用的AVs比较满意,在不可避免的伤害情况下最小化死亡人数。我们特别留意一个AV是否应该拯救生命牺牲它的主人,并提供洞察(我)认为道德的自我牺牲,(ii)愿意看到这种自我牺牲的法律执行,(iii)的期望,AVs将设定的自我牺牲,并愿意购买自我牺牲的AVs (iv)。