The better the question. The better the answer. The better the world works. У вас есть вопрос? У нас есть ответ. Решая сложные задачи бизнеса, мы улучшаем мир. У вас є запитання? У нас є відповідь. Вирішуючи складні завдання бізнесу, ми змінюємо світ на краще. Meilleure la question, meilleure la réponse. Pour un monde meilleur. 問題越好。答案越好。商業世界越美好。 问题越好。答案越好。商业世界越美好。

关于人工智能,董事会应了解哪些问题?

人工智能(AI)的重要性使其定会得到董事会关注,如果运用得当,能为企业带来发展机遇,反之则使企业面临风险。成功利用人工智能的企业有能力推动市场变革、促进收入增长、妥善管理商业风险。但与此同时,人工智能技术也会催生一系列道德、法律和编程风险,需要企业妥善处理。此外,由于业务部门缺乏对人工智能的理解,很多企业无法把握利用人工智能的时机和业务环节。

人工智能是具有颠覆性的技术

人工智能可以改善复杂的决策制定流程,这使其成为了各个行业进行转型的催化剂。除了可以更有效、更高效地完成繁重且费时的任务,人工智能还可以赋予管理团队前所未有的深刻洞察。与大数据和分析结合后,人工智能对于企业的财务职能是一个无价的工具,可以帮助财务部门更好地理解客户或模拟未来业务场景。

风险规避工具

机器学习是人工智能的一种形式,其正在企业风险管理中发挥越来越重要的作用。通过机器学习,计算机算法能够通过数据训练而逐步实现自我完善。企业可以利用人工智能开发先进的工具,实时监控行为与活动并开展分析。人工智能系统能够适应不断变化的风险环境,因此可以在监管合规和公司治理等方面持续改善企业的监控能力。除此之外,人工智能还可以由预警系统发展成为预先认知系统,帮助企业防患于未然。

人工智能还在飞速发展阶段,其潜能尚未得到完全释放。但目前,很多重要领域已经开始运用这种技术规避风险:

  • 信用风险和收入建模

    机器学习可以更准确地预测某个体或企业拖欠贷款或逾期还款的可能性。除此之外,机器学习还可以用来构建各种类型的收入预测模型。

  • 网络攻击

    人工智能系统经过训练后可以发现、监控并抵御网络攻击。人工智能可以识别具备某些显著特征的软件(如,经常耗费大量处理能力或传输大量数据),随后采取措施将其关闭,避免网络攻击。

  • 欺诈监测

    机器学习技术已经成功地应用于信用卡欺诈监测领域多年。银行使用历史支付数据对系统进行训练,从而监控支付活动中的潜在欺诈行为,中止可疑交易。

  • 供应商风险

    通过整合供应商各方面信息,包括从供应商的地理和地缘政治环境到财务风险、可持续性以及企业社会责任评分等,基于人工智能的分析平台可以管理供应商风险。

  • 监督交易中的行为问题和市场滥用情况

    通过将交易信息与其他交易员行为信息相关联,例如,邮件流量、日历事项、办公大楼出入次数甚至是电话频次,金融机构可以利用自动化系统对其交易员进行监控。

采用人工智能技术的相关风险

对于企业来说,人工智能既是管理风险的工具,也是大量新风险的来源,需要妥善管理。因此,无论何时采用这种技术,企业都应该识别各项人工智能技术应用的风险,以及使用这些应用的业务部门所面临的风险。常见风险包括,训练数据质量低下和编程问题,以及数据隐私法规和客户期望等外部压力。与人工智能技术相关的主要风险包括:

  • 算法歧视

    机器学习算法能够识别数据中的模式,并将其编写在预测、规则和决策中。如果这些模式恰好反映了现有歧视状况,那么机器学习算法很有可能会放大这种歧视,进而得出强化现有偏见模式的结果。

  • 过高估计人工智能技术的能力

    人工智能技术受到热烈追捧,因此其现有能力很容易被夸大。鉴于人工智能系统本身无法理解所执行的任务,而是依赖于训练数据,因此这种技术并非万无一失。如果人工智能系统的输入数据存在歧视、不够完整或质量欠佳,那么其结果的可靠性就会受到影响。

  • 编程错误

    任何计算机程序都无法避免出错,人工智能也是如此。当存在错误时,算法将无法按照预期运行并有可能得出误导性结果,带来例如影响某个组织的财务报告完整性这样的严重后果。

  • 网络攻击

    风险企图盗取个人数据或某公司机密信息的黑客可能会从目标公司的人工智能系统下手。如果这些黑客控制了制定重要决策的算法,如驾驶汽车或控制机器人的算法,网络攻击的后果将不堪设想。

  • 法律风险和责任

    目前,还鲜有管理人工智能技术的立法,但这种状况即将改变。然而,用来分析大量消费者数据的系统很有可能不符合现有或即将出台的数据隐私法规,尤其是欧盟的《一般数据保护条例》(GDPR)。

  • 信誉风险

    人工智能系统需要处理大量高度敏感数据,并负责在众多领域(包括信用、教育、就业和医疗)制定与个人息息相关的重大决策。因此,如果某人工智能系统存在歧视、容易出错、遭到黑客攻击或使用目的不道德,相关组织的信誉将会受到极大影响。

政策响应

在2017年,国际计算机协会(ACM)下属美国公共政策委员会和欧洲委员会发表声明,概述了一整套有关算法透明性和可问责性的原则1。这七条原则旨在确保构建自动化决策系统的开发者与人类决策制定者遵守同一套准则。原则包括:

  1. 意识
  2. 获取和救济
  3. 责任制
  4. 解释
  5. 数据来源
  6. 可审查性
  7. 验证和测试

1《算法透明性和可问责性的声明》(Statement on Algorithmic Transparency and Accountabilit),国际计算机协会下属美国公共政策委员会和欧洲委员会,2017年5月。

建议

董事会应该了解在组织内部及外部应用人工智能技术的方式,同时确保其组织具备适当的架构,能够管理相关道德问题,并知道如何应对算法歧视问题。除此之外,董事会还需要关注新出现的机制、政策和法规,从而确保在企业实现算法透明性和可问责性的平衡。最后,董事会应该相信自身“黑盒”(“黑盒”指一种机器学习系统) 的稳固性。为了实现这种信心,董事会应该全面审视人工智能系统,从而确定其产出是否符合预期,以及是否存在相应控制措施,以持续监控系统的发展。

董事会应考虑的重要问题:

  1. 董事会是否理解人工智能对其组织商业模式、文化、战略以及行业的潜在影响?
  2. 董事会如何促使管理层对人工智能技术带来的机会和风险进行战略性响应?
  3. 企业应该如何利用人工智能技术和新数据集实现治理和风险管理?董事会和审计委员会报告应怎样变化?
  4. 企业是否具备相应人才战略,可以招募并留住具备必要技能组合的人才,管理并落实人工智能相关项目?
  5. 董事会是否已经要求管理层评估采用人工智能技术对企业财务职能或财务报表完整性的影响?

主要联系人

EY - 罗奕智罗奕智
大中华区科技、媒体和电信行业主管
+86 10 5815 2837

EY - 黄文杰黄文杰
大中华区科技、媒体和电信行业审计服务主管
+86 10 5815 2823