与2018年生效的欧洲强有力的数据保护和隐私规则GDPR相比,如今的公司对即将出台的人工智能法规更加了解。但根据埃森哲的一份新报告,他们还远远没有做好准备。
尽管大多数接受调查的公司都非常清楚负责任地使用人工智能的重要性,但“他们中的大多数人已经建立了一套原则,但还没有设法在整个企业中实施,”Ray说埃森哲负责任人工智能全球负责人Eitel-Porter在接受AIBusiness采访时表示。
他说,现在是采取行动的时候了,因为在整个企业中建立一个有效的框架可能需要数年而不是数月。
好消息是,根据对20个行业17个地区的850名高管的调查,80%的公司表示他们已将10%的人工智能技术预算用于负责任的人工智能,而45%的公司已预留20%。“这是一个非常严肃的承诺,”Eitel-Porter说。
他说,重要的是,已经建立风险管理结构的公司不必从头开始构建负责任的人工智能。
负责任的人工智能是设计和开发符合道德并支持组织和社会所珍视的原则的人工智能模型的实践。Eitel-Porter说,虽然不同的实体可能在核心价值观上存在差异,但社会普遍对什么是使用人工智能的道德和以人为本的方式有“相当强烈的”共同看法。
值得注意的是,负责任的人工智能需要整个企业的参与。这不仅适用于技术人员。为什么?Eitel-Porter解释说,虽然数据科学家确实为准备好训练数据做了繁重的工作,但有些问题只有业务方才能回答。
一个例子是设置可以容忍的最小偏差阈值:是10%?15%?20%?在哪里设置偏差(或错误)阈值是一项业务决策。
大多数人的直觉反应是根本不应该有偏见。但这可能会导致结果不准确。“在大多数情况下,都会在准确性和偏差之间进行权衡,”Eitel-Porter说。“如果我们消除所有偏见,我们经常会做出不准确的预测。”
让我们考虑一下吉尔,她的信用评分很低,因为她有偿还贷款或按时付款的麻烦。她申请了贷款,在所有其他条件相同的情况下,这意味着她有更高的可能性会再次违约或延迟还款。将吉尔与信用评分高的玛丽置于同等地位——零偏见,所有其他条件相同——可能会导致对吉尔是否会偿还贷款的错误预测。
一旦设置了错误阈值,人工智能模型就会使用历史数据进行测试。包含所有公司客户的数据集被分成组并应用模型。所有组的错误率应该相当一致。如果一组高于其他组,“从数学上讲,我们的模型在这组中效果不佳,”Eitel-Porter说。
但是,测试AI模型是否存在偏差的挑战之一是数据集中的差距。例如,一家银行可能想要测试其AI模型是否歧视某个种族。但它的内部数据库中没有种族信息,因为它没有向账户持有人询问。因此,银行无法使用自己的数据集检查偏差。
Eitel-Porter表示,英国的金融服务监管机构和学术团体正在合作开发一个公开可用的数据集,其中包括种族和性别等所谓的“受保护”特征,并将提供给公司测试他们的人工智能模型。所有个人身份信息(PII)都将被删除,因此数据无法追踪到个人。
许多公司可以阐明他们的核心原则并在他们的网站上列出它们,但“这并不意味着任何人对它们采取任何行动,”Eitel-Porter说。治理框架可确保人们尊重这些原则。
这是埃森哲基于与客户互动开发负责任人工智能的框架。Eitel-Porter表示,横向类别是应该成为实施负责任人工智能核心要素的四大支柱:原则和治理、风险、政策和控制、技术和促成因素、培训和文化。
从原则和治理开始。为了使人们坚持这些核心信念,在确定检查点并确保合规性时,请参阅第二列“风险、政策和控制”。要使实施成功,请阅读第三列“技术和推动因素”。Eitel-Porter说,该公司的数据科学家应该在与负责任的人工智能相关的主题方面拥有经验和培训,例如避免偏见。
第三方工具也可从超大规模企业或数据中心巨头(如AWS和Azure)以及专有和开源中获得。
第四个支柱是培训和文化,公司确保跨部门的人员了解他们是解决方案的一部分,无论他们是在客户服务、法律、人力资源还是其他部门。
垂直类别——审计和评估、定义、工业化、维持——帮助公司弄清楚他们在流程中的位置、仍然需要什么、如何填补这些空白以及如何维持系统。