您现在的位置是:首页 >手机 > 2021-09-19 10:30:08 来源:

人工智能要想成功 电脑说不就死了

导读 “电脑说不”是《小不列颠》的笑点。它模仿最糟糕的客户服务,一个愚蠢的终端提供帮助和支持。我们有过类似的经历,每个人都在微笑。然而,

“电脑说不”是《小不列颠》的笑点。它模仿最糟糕的客户服务,一个愚蠢的终端提供帮助和支持。我们有过类似的经历,每个人都在微笑。

然而,随着越来越多的服务被自动化,“计算机说不”可能意味着工作、抵押贷款甚至医疗服务都将被拒绝,而无需任何解释。这不是开玩笑。

所有的数据科学家(包括我自己)都有责任确保用来训练AI/ML模型的数据集是准确、完整和无偏见的。此外,我们需要确保算法中使用的因素对受影响的人是透明的。

随着越来越多的政府、医疗和司法系统的自动化,我预计我们将看到向可解释的人工智能的转变,驱动因素是消费者对支持自动决策的算法持谨慎态度。我们看到过这样一个例子,那就是毛地黄挑战英国政府的签证申请算法。毛地黄是一个游说团体,旨在促进科技行业的道德。

我预见该组织将引入AI治理,或标准化的透明度水平,这将概述AI算法如何产生决策或预测的因素和方式。随着自动化成为常态,隐藏人工智能的组织可能会失去提供透明度的客户。

但是,消费者可能并不要求产品推荐系统具有与医疗诊断系统一样的透明度,或者自动驾驶汽车的实时决策逻辑。

在总结CCS Insight 2019年对IT决策者工作技术的调查结果时,分析师Nick McQuire写道,“人工智能系统确保数据安全和隐私的能力,以及系统如何工作的透明度和培训,是现在投资机器学习技术时最重要的两个需求。”

对于一些应用,比如医学诊断,我认为能够解释算法背后的逻辑将是一个优势。对于其他领域,区别在于应用程序的运行时间、使用新数据调整和重新学习数据集的频率,以及诸如准确性、真阳性和假阴性等成功衡量标准。

数据集的偏差和差异是反映实际应用的常见挑战。例如,汽车保险公司在非洲国家应用政策/保费自动化方面面临挑战,在这些国家,道路基础设施的差异可能导致好司机因路面不良而受到惩罚。这在分类偏差的范围内,这对于数据科学家来说是一个与设计相关的挑战。

为了克服数据模型中的偏差,第一个建议是使用机器学习算法或统计学习方法来代替深度学习。通常,机器学习方法是一种特征提取器,非常适合数据集很小或者有绝对偏差的情况。然而,深度学习算法需要具有一致分类的更大数据集。

第二个建议是增加数据集,这样可以人工创建类别,获得统一的数据集。然而,根据经验,扩展只适用于特定类型的用例。如果设计不好,可能会对学习过程产生负面影响。

我预见到了自动数据清理、数据分析和预测分析的需求,这样企业用户和消费者就可以信任提供给人工智能模型的数据。

使用人工智能来掌握或清理数据需要主题专家来验证预测决策。在我看来,为预测结果提供透明度的最好方法是显示AI管道和有助于达到预测最终状态的有影响力的数据点或数据属性。这可以显示为图形或图像形式的视觉关键性能指标。

深度学习假设算法不一定提供真理,但解释了准确性的水平,其中每一层提取一个抽象的输入数据,因此深度学习算法中的每一层都有自己的功能,这会扭曲最终的预测决策。该算法旨在“测量”数据点,并提出了一个灵活的函数(如果您愿意),可以适应新的数据点。由此产生的预测是一种可能性,它来自不同数据点的组合和因子分解。

拥有干净、最新、相关和高质量的数据更有可能产生有效的预测。

我们在人工智能领域观察到的是,组织正在投入大量时间和金钱,使人工智能更容易被消费者中的不同角色所利用。随着我们不断提高人工智能的粘性和投资回报,我们将开始更加关注人工智能提出的自动化和前瞻性建议(即强制分析)。然后,可解释的人工智能将提供一定程度的透明度,并解释预测决策是如何产生的。

组织可以采取一些策略,在不暴露其知识产权的情况下,将透明度级别显示为可预测的最终状态。大多数消费者不一定需要看到AI算法的设计(这是组织的知识产权),而是需要对预测决策是如何做出的有一个基本的了解(比如链接分析)。

我相信,消费者先知道哪些输入参数影响预测决策,再知道哪些数据点或属性的组合产生预测决策的概率更高,会更有利于消费者。

如今,“黑盒逻辑”可能成为组织面临的主要挑战之一,因为他们必须努力利用人工智能和机器学习来解决自动化过程。

自动化对任何组织都是有利的,但我认为鉴于目前人工智能模型的成熟,人工智能需要被控制,主题必须始终处于等式的中心。我的建议是用人工智能提出建议和推荐,让主题专家验证人工智能算法的结果。

这种策略的优点是算法暴露于更大的数据集,从而巩固了其知识库。随着时间的推移,它会尽量模仿题材专家的反应,从而获得更高的准确率。