您现在的位置是:首页 >财经 > 2020-12-09 08:59:58 来源:

设计方法可能有助于纠正人工智能中的偏见

导读 人工智能(AI)和机器学习程序的偏见已经建立。北卡罗莱纳州立大学和宾夕法尼亚州立大学的研究人员现在建议软件开发人员将女权主义设计思想的

人工智能(AI)和机器学习程序的偏见已经建立。北卡罗莱纳州立大学和宾夕法尼亚州立大学的研究人员现在建议软件开发人员将“女权主义设计思想”的概念纳入其开发过程中,以提高公平性,特别是在招聘过程中使用的软件开发中。

北卡罗莱纳州大学信息系统/技术教授,大学教授Fay Payton表示:“似乎有无数关于AI偏见正在以何种方式表现出来的故事,并且有许多关于导致这种偏见的因素的思想研究。”州。“我们的目标是提出可用于开发可行解决方案的指南,以解决针对IT劳动力中女性,非裔美国人和拉丁裔专业人员的算法偏见。

论文的共同主要作者佩顿说:“太多的现有聘用算法结合了事实上的身份标记,由于其性别,种族,种族,年龄等因素而排除了合格的候选人。” “我们只是在寻求公平-求职者能够平等地参与招聘过程。”

佩顿和她的合作者认为,一种称为女性主义设计思维的方法可以作为开发软件的有价值的框架,从而以有意义的方式减少算法偏差。在这种情况下,女权主义设计思想的应用意味着将公平的思想纳入算法本身的设计中。

该论文的共同主要作者,《纽约时报》副教授Lynette Yarger表示:“算法偏差的影响是妇女在历史上的代表性不足,Black和Latinx软件工程师根据她们的实际经验提供了有关公平设计方法的新颖见解。”宾夕法尼亚州立大学的信息科学与技术。

佩顿说:“从本质上讲,这种方法意味着要开发出一种算法,该算法重视跨性别,种族和种族的包容性和公平性。” “这种方法的实际应用是开发和实现一种算法创建过程,设计师可以在其中考虑包括女性在内的受众,其中包括黑人,包括拉丁裔。从本质上讲,所有背景的开发人员都应积极参与。考虑和评价与自己不同的人。

“要明确,这不仅仅是做某件事,因为它在道德上是正确的。但是我们知道,女性,非裔美国人和拉丁裔人在IT领域的代表性不足。而且有充分的证据表明,多元化的包容性劳动力可以改善公司的底线。” Payton说。“如果您能做正确的事并提高利润率,那为什么不呢?”