缺乏信任的智能是什么?

7 分钟 2019年4月11日
相关话题 创新

人工智能(AI)持续改变着商业世界,我们探索了可以帮助企业领导者建立信任的五个关键领域。

工智能最终将改变众多企业和行业。但是其发展步伐受到缺乏信任的影响。如今,在没有成熟的风险意识和适当的框架和管控的情况下,AI的应用除了概念验证和孤立的解决方案之外,还没有太大的发展。

许多公司仅在低风险领域使用AI,通常只是为了获得洞察。如果该技术要取代人类的决策,那么也只能在人类的监督下进行。当AI自主决策尚处于起步阶段时,这是适当的选择,但是这项技术的使用正在迅速增加。随着时间的流逝,AI将负责做出更多的决策,并且是影响力更大的决策。

为了理解信任对构建成功的AI系统的重要性,企业领导者可以从探索这五个关键问题开始。

问题1:为什么人工智能在信任方面与其他技术不同?

与其他技术不同,AI技术可以自我适应,在使用过程中学习,因此,AI今天做出的决定可能与明天做出的决定不同。重要的是,要持续监控这些变化,验证这些决策是否依然是适当的、高质量的,反映公司的价值观。

例如,当使用历史数据培训AI系统时,可能会引入风险。考虑一下如何将其应用于招聘决策。历史数据是否反映出女性和少数民族面临偏见?即使有治理流程预防错误,这些算法是否仍会重现过去的错误?系统是否能防止不公平,符合法律规定?

安永全球人工智能主管Nigel Duffy表示: "AI可以成为增强人类能力的绝佳工具,但我们必须了解其局限性。从文化和公司价值观来看,AI所能给出的最佳答案可能仍然不是最适当的。”

AI的决策必须符合公司价值观以及道德和社会规范,然而,人类的道德标准基于许多方面:家庭、文化、宗教和群体。另外,开发团队通常由白人或亚裔的男性组成,不能反映出世界的多元化。他们的个人价值观是否能反映我们希望在这种情况下应用的公司价值观呢?

但是,我们还需要问问自己,这些系统是否正在按照我们期望的方式运行。AI的使用正在扩展,但是很少有企业具有成熟的能力监控AI的表现。在许多例子中,企业因自动化决策系统管理不善而破产。自动化系统的失控,可以让企业迅速崩溃。

AI可以成为增强人类能力的绝佳工具,但我们必须了解其局限性。从文化和公司价值观来看,AI所能给出的最佳答案可能仍然不是最适当的。

问题2:AI系统故障的风险是什么?

风险包括法律、财务和声誉风险。失败的AI系统可能涉及违反雇佣法律和其他法规的情况。例如,一家贸易公司在短短45分钟内因软件故障损失了4.4亿美元。在另一个案例中,一家大型图片共享服务商使用了一种错误的算法,在标记动物照片时带有种族歧视色彩。

算法容易出错,可能很快就会出问题。在研究识别图片内容的算法时,一个研究小组发现,仅改变照片中的几个像素,系统就会认为一个玩具乌龟实际上是一把枪。

这并不是反对使用AI的理由,而是在发出预警,要部署严格的管控措施和流程,确保AI按照设计初衷进行操作,这是非常重要的。

Children building model house image

问题3:企业领导者如何降低这些风险?

正如任何新技术一样,要确定如何管理AI,首先可利用现有的治理和技术管理实践,然后考虑必须补充、修改或扩充的内容。例如,您可能需要加强实时监控,以评估AI如何发展以及其是否仍在预期范围内运行。

同样,从整个系统的角度考虑AI,而不是专注于独立的部分,这也很重要。请记住,一个AI算法通常不是单独运行的,而是可能带有机器人功能、物联网传感器和其他算法。这种相互关联的多重系统可能带来更多风险。

同样,企业在没有充分了解其带来的风险和局限性的情况下,不应接受第三方AI应用程序。

安永全球可信AI咨询服务主管Cathy Cobey表示:“企业必须通过提出一些关键问题,迈出管理风险的第一步,例如,'我的企业在哪些环节部署了AI?目前部署了哪些控制措施?'”

企业必须通过提出一些关键问题,迈出管理风险的第一步,例如:“我的企业在哪些环节部署了AI?目前部署了哪些控制措施?”

问题4:为什么对AI的信任如此重要?

如果我们要依靠AI做出决策,驾驶我们的汽车,那么就需要信任。没有信任,该技术将不会被采用,否则就需要大量的人为监督,导致其效率和其他益处被抵消。

创建一个使用AI和管理风险的框架,听起来可能很复杂,但是该框架其实类似于人们已经使用的控制、政策和流程。我们已经在根据一系列规范评估人类行为,一旦人们开始在这些规范之外开展活动(例如,让偏见影响他们的判断),我们就会做出反应。

企业还应该了解风险的范围,并针对特定风险匹配控制和治理程序。AI技术的风险取决于其使用方式。例如,与检测过马路行人的成像相比,标记个人照片的成像软件的风险要低得多。

了解AI技术及其使用案例的风险状况有助于您确定适当的治理和控制框架,以覆盖该AI 技术。

Nigel表示:“像任何改变世界的技术一样,AI也伴随着风险。但是有一些明确的方法来管理潜在的风险,同时利用好AI巨大的优势。”

问题5:整合AI时,企业如何维持信任?

企业需要从一开始就嵌入信任,集中在需求之中,而不仅是在日后才将其加入或担心该问题。风险、合规性和治理职能为AI带来真正有效的挑战和监督,为企业开发真正的转型用例奠定基础。

关键行动包括:

  1. 确定如何就某些用例是否可使用AI技术做出决定,包括由来自不同学科的专业人员组成的道德委员会来确定
  2. 盘点企业在哪些环节使用了AI,进行风险评估以达到良好治理
  3. 作为AI系统要求的一部分,从一开始就将信任嵌入设计中
  4. 使用持续监控所需的工具和技术
  5. 聘请专业人士提供服务,例如独立测试和验证AI算法

Cathy表示:“不要忽视AI作为风险管理解决方案的潜力。例如,它可以用来降低网络安全和隐私风险,以及人为偏见带来的风险。”

准备寻求或完善AI战略的企业应牢记以下关键问题:

  • 人工智能的表现如何以及是否符合预期?
  • 如何识别和解决偏见?
  • 对最终用户的透明度如何?
  • 贵企业的AI策略在腐败和安全问题方面的抵抗力如何?
  • AI系统的方法和决策,是否容易被理解、记录和验证?

Nigel表示:"可信的AI不仅包含道德和社会责任,还包含绩效—相信它正在做需要做的事情。在这种定义明确的背景下,AI可以提供宝贵的见解。”

转到您的收件箱

我们最新的“编辑精选”文章。

订阅

结语

尽管将AI以恰当的方式应用到商业模式中仍会面临信任方面的许多问题,但了解和评估风险最终将使企业能够充分利用AI技术的优势。

关于本文

相关话题 创新