Man practicing slackline over the sea in Minorca Balearic Islands Spain
Man practicing slackline over the sea in Minorca Balearic Islands Spain

安永全球负责任AI脉搏调查

负责任的人工智能如何弥合投资与绩效之间的鸿沟?

人工智能 (AI) 要发挥最大价值,必须以负责任的方式嵌入企业运营。这不仅意味着更高的利润,还意味着更高的员工满意度和更少的高成本错误。


概要

  • 具备监督和实时监控的企业正在将AI从风险转变为增长引擎。
  • 缺乏适当控制措施的企业将持续面临AI风险带来的重大财务损失。
  • 高管层的盲点可能使企业暴露风险,必须对公民开发者进行有效监督。

AI领域表现突出的公司,不仅专注于打造更先进的模型 — 他们还在建立更智能的防护机制,以抓住超额市场机会。最新的安永全球负责任AI脉搏调查显示,那些通过明确原则、稳健执行和强有力治理来拥抱负责任AI的组织,正在收入增长、成本节约和员工满意度等关键指标上取得领先。这些收益并非微不足道,而是决定AI是成本中心还是竞争优势的关键分水岭。

调查结果显示,几乎所有企业都曾因AI相关事件遭受财务损失,平均损失保守估计超过440万美元。然而,那些采取治理措施(如实时监控和设立监督委员会)的企业,风险显著降低,回报更强劲。

负责任AI不仅仅是合规要求,它是一种驱动绩效的战略杠杆 — 最新数据已经证明这一点。

负责任AI之旅:企业如何迈向全面治理

负责任AI不仅是一项技术要求,更是一段系统化的旅程,通常分为三个阶段:

  • 第一阶段:沟通 — 企业在内部和外部明确阐述负责任AI原则。
  • 第二阶段:执行 — 将原则转化为行动,通过控制措施、关键绩效指标和员工培训落地。
  • 第三阶段:治理 — 通过委员会和独立审计等机制监督,确保行动与原则保持一致。

 

大多数企业已经踏上这段旅程。根据安永全球负责任AI脉搏调查第二波结果,高管层在这三个阶段采取的措施平均达到10 项中的7项。

 

在科技、媒体、娱乐和电信 (TMT) 等行业,采纳率更高。这些行业对技术和数据的依赖,使负责任AI显得尤为关键。沟通方面,80%的企业向外部利益相关方传达负责任AI原则(其他行业为71%)。治理方面,74%已建立内部或外部委员会监督原则遵循情况(其他行业为61%),72% 会进行独立评估(其他行业为61%)。


虽然在旅程的每个阶段都有一定流失,但差距很小,平均每一步仅下降几个百分点。而在尚未实施措施的地方,企业普遍表示计划采取行动 — 不到2%的企业表示没有实施计划。

这一进展至关重要。负责任AI不能仅靠原则实现,它需要“全方位”的方法:明确阐述原则、稳健的控制措施以及强有力的治理,才能确保负责任AI从口号走向现实。

负责任的AI是关键缺失环节

AI已为众多企业创造巨大价值。调查显示,八成受访者认为AI提升了效率和生产力 — 这是许多早期应用场景的核心目标。几乎同样比例的企业表示,AI推动了创新和技术采用,加速了生成式AI擅长的活动,如创意构思、探索、研发和快速原型设计。约四分之三的受访者认为AI增强了他们理解客户和快速应对市场变化的能力。


然而,在三个关键领域 — 员工满意度、收入增长和成本节约 — AI尚未带来同等程度的改善。根据安永AI情绪调查 (EN),一半的公众担心AI导致失业,许多人仍对AI在工作决策中的角色持谨慎态度。对于许多企业而言,将AI投资转化为损益表上的实际改善仍然是一大难题。

安永全球负责任人工智能主管Cathy Cobey表示:“企业难以在AI投资中实现正向回报,主要原因在于整合过程的复杂性。这不仅需要流程再造、技能提升和持续的数据流投资,还面临遗留技术整合的挑战,以及治理框架不断演进的压力。这些因素共同阻碍了企业实现切实的财务收益。”

深入分析数据显示,一个显著趋势正在浮现:拥抱负责任AI的企业正在实现突破,而其他企业仍停滞不前。那些采取治理措施的组织 — 尤其是实时监控和设立监督委员会 — 在收入增长、员工满意度和成本节约方面更有可能取得改善,这些正是多数企业难以实现回报的领域。


这一发现揭示了一个共生关系:在负责任AI旅程中走得更远的企业,正是在最需要提升的领域取得了突破。这并不难理解 — 公开承诺负责任AI可以缓解员工焦虑,增强信任;传达负责任的做法有助于提升品牌声誉和客户忠诚度,最终推动收入增长。而稳健的治理不仅能防止昂贵的技术和伦理风险,还能降低招聘和留任成本,这些收益最终会反映在利润表上,提升成本节约。

对企业领导者而言,信息非常明确:要提升AI投资回报率,就必须在负责任AI旅程中更进一步。

忽视风险的代价:财务损失触目惊心

负责任AI的采用能带来显著收益,但反之亦然 — 忽视它可能付出高昂代价。调查显示,几乎所有公司 (99%) 都报告因AI相关风险造成财务损失,其中64%的损失超过100万美元。平均而言,经历风险的企业损失保守估计为440万美元1,按样本中的975家企业计算,总损失约43亿美元。  

企业报告的最常见负面影响风险包括:未遵守AI法规 (57%)、对可持续发展目标产生负面影响 (55%) 以及输出结果存在偏差 (53%)。诸如可解释性、法律责任和声誉损害等问题目前尚不突出,但随着AI更广泛和更显著的应用,这些问题的重要性预计将不断增加。

令人鼓舞的是,负责任AI已被证明能降低风险。例如,明确制定负责任AI原则的企业,其风险发生率比未制定原则的企业低 30%。

高管层盲点:风险暴露的隐患

尽管财务风险巨大,许多高管层领导仍缺乏实施正确控制措施来缓解AI风险的能力。调查显示,当被要求将适当的控制措施与五种AI相关风险匹配时,仅有12%的受访者全部答对。

不出所料,首席信息官 (CIO) 和首席技术官 (CTO) 表现最好,但即便如此,只有约四分之一在所有五个用例中回答正确。

首席人工智能官 (CAIO) 和首席数字官 (CDO) 的表现略高于平均水平 (15%),这可能反映了他们的背景更多集中在数据科学、学术研究和模型开发,而非传统技术风险管理,因此在管理技术相关风险方面经验不足。

令人担忧的是,最终对AI风险负有责任的首席风险官 (CRO) 表现略低于平均水平,仅为 11%。而在表现最差的群体中,首席市场官 (CMO)、首席运营官 (COO) 和首席执行官 (CEO) 分别仅有 3%、6% 和 6%。


这种认知缺失带来了直接后果:因AI风险损失超过1000万美元的企业,仅实施了10项正确控制措施中的4.5项,而损失不超过100万美元的企业则实施了6.4项。这凸显了针对高管层进行有针对性的技能提升的迫切需求,尤其是在AI风险的财务和声誉成本持续上升的情况下。

前方挑战:自主型AI与公民开发者

 治理挑战不会随着当前模型而结束。随着自主型AI在职场中日益普及,以及员工尝试公民开发,风险 — 以及对深思熟虑的控制措施的需求 — 只会不断增加。 

自主型AI的特性带来了新的风险,这些风险可能迅速升级。

令人鼓舞的是,大多数组织已开始实施治理政策来管理这些风险。我们识别的10项自主型AI治理措施中,有8项已被超过 75%的受访者采用。这包括持续监控(85%) 以及针对意外自主行为的事件升级流程 (80%)。尽管企业已取得良好开端,但在设计有效控制措施方面仍存在挑战,这些措施必须能够充分监督持续运行、快速适应且需要最少人工干预的系统。 


Sinclair Schuller 指出:“在自主型AI时代,系统以越来越高的自主性和复杂性运行,组织必须优先考虑实时监督:持续监控和快速响应能力是驾驭这些技术复杂性的关键。自主型AI的特性带来了可能迅速升级的新风险,因此必须建立稳健的控制措施,以防止代价高昂的中断并确保系统完整性。”

一个明显滞后的领域是为混合AI与人类协作的工作环境做好准备。只有三分之一 (32%) 的受访者表示其人力资源团队正在制定管理此类环境的策略。不过,鉴于自主型AI仍处于早期阶段,这一数字可以被视为积极信号,因为它表明企业已开始战略性思考该技术的长期影响。

公民开发者:机遇还是风险盲点?

“公民开发者”的兴起 — 即员工使用无代码或低代码工具创建自己的AI代理 — 正在为企业带来更复杂的治理挑战。

约三分之一 (32%) 的公司选择完全禁止公民开发,其余公司则从严格限制使用场景到积极鼓励不等,甚至有企业在团队间推广最佳实践。


高管层最应关注的是声明政策与实际监督之间的不一致。在允许公民开发者的组织中,只有60%拥有正式的、覆盖全公司的框架,以确保与负责任AI原则保持一致,且仅有一半对实际活动具有高度可见性。即使在禁止这种做法的公司中,仍有12%承认缺乏对实际活动的可见性 — 这造成了治理缺口,使“影子AI开发”能够在未被察觉的情况下滋生,意味着企业实际上是在“盲飞”。

自主型AI和公民开发者的出现,强调了一个核心主题:负责任AI必须随着技术和职场行为同步演进。如果企业希望在不增加风险的情况下抓住这些趋势带来的机遇,明确的框架、积极的监督和领导层的认知至关重要。

对企业领导者的启示

以下是高管层可采取的三项行动,以强化AI治理与控制,推动业务成果:

1. 采取全面的负责任AI方法

负责任AI的应用与AI驱动的绩效提升之间存在紧密联系,这向企业领导者传递了明确的信息:要从AI投资中获得更大价值 — 尤其是在财务绩效和员工满意度等关键领域 — 企业必须在负责任AI的旅程上更进一步。一套完备的实施路径应涵盖:明确并传达负责任AI原则,通过控制措施、关键绩效指标和培训将原则落地,并建立有效的治理机制。

2. 填补高管层的知识空白

AI影响组织的方方面面。领导者必须了解其潜力与风险,以及缓解风险所需的控制措施。然而,我们的调查显示,在识别最适合的控制措施方面仍存在显著不足。

你的高管团队表现如何? 识别最大的差距,并通过有针对性的培训加以弥补。至少要确保最接近AI风险的角色熟悉适当的防护措施。

3. 领先应对新兴的自主型AI和公民开发者风险

自主型AI带来了强大的新能力,但也伴随重大风险。企业必须识别这些风险,制定适当的政策,并确保建立有效的治理和监控机制。

目前,企业声明的政策与对员工是否开发自己的AI代理的实际洞察之间存在差距。在确定立场之前,先了解这种做法对企业的成本和收益。无论你选择禁止、允许还是鼓励,都必须确保政策有真实的洞察作为支撑,明确员工实际在做什么。

结语

随着AI深度融入业务运营,企业领导者面临一个关键选择:是将负责任AI视为形式化的合规任务,还是作为战略推动力? 事实证明,选择后者的企业已经通过稳健的治理、明确的原则和有远见的领导层,将潜在风险转化为竞争优势。下一波发展 — 从自主型模型到公民开发 — 只会提高风险与回报的筹码。成功将属于那些现在就行动起来,将责任与绩效紧密结合的企业。

相关内容

如何自信地运用人工智能创造价值

了解生成式人工智能如何释放指数级价值、刺激全球经济增长,并重启生产力和GDP增长率。了解更多。

    关于本文