您现在的位置是:首页 >要闻 > 2021-01-14 08:31:22 来源:
人工智能可以加深社会不平等这是防止这种情况的5种方法
导读 从Google搜索和约会网站到检测信用卡欺诈,人工智能(AI)一直在寻找进入我们生活的新方法。但是我们可以相信驱动它的算法吗?作为人类,我们
从Google搜索和约会网站到检测信用卡欺诈,人工智能(AI)一直在寻找进入我们生活的新方法。但是我们可以相信驱动它的算法吗?
作为人类,我们会犯错误。我们可能会引起注意失误并曲解信息。但是,当我们重新评估时,我们可以找出并纠正错误。
但是,当AI系统出错时,无论在相同情况下查看相同数据有多少次,都将一次又一次重复。
使用不可避免地反映过去的数据来训练AI系统。如果训练数据集包含过去人类决策的内在偏见,则这些偏见将由系统进行整理和放大。
或者,如果它包含的有关特定少数群体的数据较少,那么对该群体的预测将趋于恶化。这称为“算法偏差”。
Gradient Institute共同撰写了一篇论文,展示了企业如何识别AI系统中的算法偏差,以及如何减轻它。
该作品是与澳大利亚人权委员会,消费者政策研究中心,CSIRO的Data61和CHOICE倡导小组合作制作的。
算法偏差如何产生?
缺乏合适的训练数据或不适当的系统设计或配置可能会导致算法偏差。
例如,通常使用银行以前的贷款决定的大数据集(以及银行可以访问的其他相关数据)来训练帮助银行决定是否授予贷款的系统。
该系统可以将新贷款申请人的财务历史,工作历史和人口统计信息与先前申请人的相应信息进行比较。据此,它试图预测新申请人是否将能够偿还贷款。
但是这种方法可能会出现问题。在这种情况下可能出现算法偏差的一种方式是通过贷款管理者的无意识偏差,他们过去对抵押贷款申请做出了决定。
如果过去少数族裔的客户被不公平地拒绝了贷款,则认可机构将认为这些族群的一般还款能力低于实际水平。