EYとは、アーンスト・アンド・ヤング・グローバル・リミテッドのグローバルネットワークであり、単体、もしくは複数のメンバーファームを指し、各メンバーファームは法的に独立した組織です。アーンスト・アンド・ヤング・グローバル・リミテッドは、英国の保証有限責任会社であり、顧客サービスは提供していません。
責任あるAIに関するパルス調査
要点
EYでは2025年6月に続き、10月に「責任あるAI」に関する2度目のパルス調査を実施いたしました。
「責任あるAI」の整備を進める企業は、明確なビジネス成果を享受しています。特に、AIに関する監督委員会やリアルタイム監視を導入した企業は、イノベーションや業務効率の改善といった成果を上げており、回答企業の約80%が収益向上や従業員満足度の向上につなげているとのことです。
一方、調査対象の企業の99%がAI関連のリスクによる財務的損失を経験しており、その64%は100万米ドル以上の損失を被っています。特に、AI規制の不順守、バイアスの問題、およびサステナビリティ目標の遅延などが顕著であり、C-suite層はリスク管理の認識不足が指摘されています。
今回の調査には50社の日本企業にも参加していただいており、当回答企業においては、全体傾向と同様の結果が見られました。日本企業の特徴として、ポリシーやガバナンスは定めているものの、具体的な施策の実装や周知教育の実施において、相対的に改善点があるように見受けられます。委員会組織の編成やAI利用ガイドラインの整備の段階から、個々のAI利用ケースに沿ったリスク施策の実施段階に入っていると言えるでしょう。
EY Japanでは、「責任あるAI」ガバナンスの態勢づくりを通じて、貴社のAI戦略の実現に貢献いたします。
川勝 健司
EYストラテジー・アンド・コンサルティング株式会社 リスク・コンサルティング パートナー
菅 達雄
EYストラテジー・アンド・コンサルティング株式会社 リスク・コンサルティング シニアマネージャー
人工知能(AI)で卓越した成果を上げている企業は、優れたモデルを構築しているというだけでなく、より高度なガバナンス体制(ガードレール)を整えることで、市場の巨大なビジネスチャンスを確実に捉えています。EYのグローバルネットワークにおいて実施した最新の調査「Responsible AI Pulse Survey(責任あるAIに関するパルス調査)」(以下、本調査)によると、明確な「原則」、着実な「実行」、堅固な「ガバナンス」を通じて、責任あるAIを実践している企業は、AIによる成果が最も得にくいとされてきた、収益成長・コスト削減・従業員満足度といった指標において、他社を大きく上回る成果を上げています。このような成果は微々たるものではなく、企業がAIをコストセンターと見なすか、それとも競争優位性の原動力として活用するかという姿勢の違いを如実に示しています。
本調査結果によると、ほぼすべての回答企業がAI関連のインシデントによる財務的損失を経験しており、その平均被害額は、控えめに見積もっても4.4百万米ドルを超えています。一方、リアルタイム監視や監督委員会といったガバナンスのための措置を講じている企業では、リスクが最小限に抑えられ、投資対効果も高い傾向にあります。
責任あるAIは、単なるコンプライアンス対応ではなく、企業パフォーマンスを促進する戦略的な枠組みです。その有効性は、最新のデータにも裏付けられています。
責任あるAIへの取り組みは、3つのフェーズを通じて進めていくジャーニーとして捉えるのが最も適切な考え方です。最初のフェーズは「原則の共有」であり、企業は責任あるAIに関する明確な原則を社内外に向けて発信します。次に「実行」のフェーズでは、定めた原則を実際の行動に移し、コントロール措置、KPI(重要業績評価指標)、従業員研修などを通じて、原則を実践に落とし込みます。最後のフェーズは「ガバナンス」で、行動と原則の整合性を保つために、委員会の設置や外部監査などを通じて監督体制を構築します。
ほとんどの企業が、すでに責任あるAIのジャーニーに乗り出しています。今回の調査で、C-suiteに対して、3つのフェーズにわたる実践状況について尋ねたところ、提示した10項目の施策のうち、平均して7項目がすでに実施済みであることが明らかになりました。
セクター別に見ると、TMT(テクノロジー、メディア・エンターテインメント、テレコム)分野で、責任あるAIの導入が特に進んでいます。これは、主要サービスの提供において他のセクターよりもテクノロジーやデータへの依存度が高く、責任あるAIの重要性が一増高まっているためです。実際、TMT企業の80%が責任あるAIの原則を外部ステークホルダーに伝えており、これは他のセクターの71%を上回っています。また、ガバナンスの面でも、TMTセクターは先行しており、74%の企業が責任あるAIの原則を順守しているか監督する社内外の委員会を設置しています(他セクターは61%)。さらに、責任あるAIのガバナンスやコントロールに関する独立した評価を実施している企業も72%に上り、こちらも他セクターの61%を上回っています。
責任あるAIへの取り組みの各フェーズで多少の離脱が見られますが、その差はごくわずかで、次のフェーズに進む際の減少率は平均して数ポイント程度にとどまっています。責任あるAIの実現に向けた施策をまだ実施していない企業もありますが、その多くは今後実施する意向を示しています。施策すべてにおいて、「実施は予定していない」と回答した企業は、わずか2%未満です。
こうした取り組みが着実に前進することは非常に重要です。責任あるAIの実現には、原則を掲げるだけでは不十分であり、上記に挙げたすべての施策に包括的に取り組む必要があります。原則の明確化に加え、厳格なコントロールと強固なガバナンスがそろって初めて、責任あるAIへの取り組みを理念から実践へと移行させることができます。
AIはすでに多くの企業に大きな成果をもたらしており、特に効率性や生産性の向上は、初期導入段階で重視されていた成果として、企業の約8割が実感しています。同様に、多くの企業が、AIによってイノベーションや技術導入が促進され、生成AIが得意とするアイデア創出、発見、研究開発、迅速なプロトタイピングといった活動が加速したと回答しています。さらに約4分の3の企業で、顧客理解が深まり、市場の変化への迅速な対応力も強化されています。
一方で、従業員満足度・収益成長・コスト削減という3つの重要分野においては、AIによる同様の成果は得られていません。「EY AI Sentiment Survey(AIに関するセンチメント調査)」によると、回答者の半数がAIによる雇用喪失を懸念しており、業務上の意思決定へのAIの関与についても慎重な姿勢を崩していません。さらに、AIへの投資を損益計算書上の具体的な成果に結び付けることは、多くの企業にとって依然として実現が難しい状況です。
EY Global Responsible AI Leader(Assurance部門)のCathy Cobeyは、次のように述べています。「多くの企業が、AI投資に対して十分な投資収益率(ROI)を得られないという課題に直面しています。その要因として、AIを既存の業務プロセスに統合する際に、業務の再設計や人材のスキル向上、データフローへの継続的な投資など、複雑な対応が求められることが挙げられます。その他にも、レガシーシステムとの統合の難しさや、時代の変化に即したガバナンス体制の整備が求められることが、財務的な成果の実現を妨げる要因となっています」
しかし、データをさらに深掘りしたところ、注目すべき傾向が明らかになりました。責任あるAIを積極的に導入している企業は、他社が成果を出せずにいる領域で躍進を遂げています。特に、リアルタイム監視や監督委員会の設置などのガバナンス施策を導入している企業では、収益成長、従業員満足度、コスト削減といった、多くの企業がROIの面で苦戦している分野において、改善が報告される傾向が顕著に見られました。
こうした結果は、責任あるAIへの取り組みと企業パフォーマンスの間に、相互にメリットをもたらす関係が存在することを示唆しています。責任あるAIへの取り組みが進んでいる企業ほど、極めて大きな改善が求められる、収益成長・従業員満足度・コスト削減において、他社を上回る成果を実現しています。その理由は明白です。企業が責任あるAIへの取り組みを公にコミットすることで、AIに対して不安を抱える従業員に安心感を与えることができます。責任ある姿勢を社外に発信することにより、ブランドの評判や顧客のロイヤリティが高まり、収益の向上も期待できます。また、堅固なガバナンス体制の構築は、技術的・倫理的な問題による莫大な損失を防ぐだけでなく、採用や人材定着にかかるコストの削減にも寄与します。こうした取り組みは最終的に企業の収益性を高め、コスト面でも大きな効果をもたらします。
結論は明確です。C-suiteが注力すべきは、責任あるAIへの取り組みを着実に前進させ、AI投資のリターンを最大化することです。
責任あるAIの導入はさまざまなメリットをもたらしますが、逆にその実践を怠れば、企業にとって深刻なリスクを招きかねません。実際、調査対象企業のほぼすべて(99%)がAI関連のリスクによって財務的損失を経験しており、そのうち64%は100万米ドルを超える損失を被っています。平均損失額は控えめに見積もっても440万米ドルを下らず、調査対象の975社全体では推定43億米ドルの損失となっています。
企業が実際に被害を被ったリスクとして最も多く挙げられているのは、AI規制の不順守(57%)、サステナビリティ目標の後退(55%)、そしてアウトプットにおけるバイアス(53%)です。説明可能性や法的責任、評判への影響といった課題は現時点では目立っていないものの、AIの導入がより広範かつ本格的に進むにつれて、こうした領域への影響は今後さらに高まると見込まれます。
そうした中、明るい材料としては、責任あるAIの実践はリスク軽減につながっているということです。例えば、責任あるAIの原則を明確に定義している企業は、そうでない企業と比べてリスクの発生率が30%低いことが示されています。
財務的な影響が大きいにもかかわらず、多くのC-suiteはAIリスクを軽減するための適切なコントロール施策をどう適用すべきか理解していないことが明らかになっています。AIに関連する5つのリスクに対して適切なコントロール措置を選ぶよう求められたところ、すべて正しく答えた回答者はわずか12%でした。
予想どおり、最高情報責任者(CIO)や最高技術責任者(CTO)が最も高い正答率を示しました。しかし、それでも5つのユースケースすべてに正しく答えたのは約25%にとどまっています。
一方、最高AI責任者(CAIO)や最高デジタル責任者(CDO)は、平均をわずかに上回る15%の正答率でした。これは、彼らの専門領域が従来のテクノロジーリスク管理ではなく、データサイエンスや学術、モデル開発にあることを反映していると考えられます。そのため、CIOやCTOと比べると、技術関連リスクの管理経験が十分でない可能性があります。
懸念すべきは、AIリスクに最終的な責任を持つ最高リスク責任者(CRO)の正答率が平均を下回る11%だったことです。さらに、最高マーケティング責任者(CMO)、最高執行責任者(COO)、最高経営責任者(CEO)はそれぞれ3%、6%、6%と最も低い成績でした。
適切なコントロール措置に対する理解不足は、企業にとって重大な損失を招く可能性があります。AIリスクによって1,000万米ドル以上の損失を被った企業では、10項目ある適切なコントロール措置のうち、平均4.5項目しか実施されていません。一方、損失が100万米ドル以下の企業では、平均6.4項目が実施されています。こうした結果は、AIリスクによる財務面および評判面での損失が今後さらに深刻化する可能性を踏まえ、C-suiteにおいては、重点的なスキル向上の取り組みが不可欠であることを明確に示しています。
ガバナンス上の課題は、現在のAIモデルにとどまりません。職場でエージェント型AIの活用が進み、従業員による市民開発※の試みが広がるにつれ、新たなタイプのリスクが顕在化し、慎重にコントロールする必要性が一層増していくと考えられます。
※専門知識や開発経験のない一般職員が、プログラミングやコードなどを使用せず専用のプラットフォームやツールを使用してアプリケーション開発をすること
エージェント型AIの自律性は新たなリスクをもたらし、それは急速に深刻化する可能性があります
Sinclair Schuller
EY Americas Responsible AI Leader
幸いなことに、多くの企業がすでにこれらのリスクに対応するためのガバナンス方針を導入しています。EYでは、エージェント型AIに関する10のガバナンス施策を提示していますが、そのうち8つは75%以上の回答企業で実施されており、例えば、継続的なモニタリング(85%)や、予期せぬエージェント型AIの挙動に対するインシデント対応のエスカレーションプロセス(80%)などが含まれます。このように企業の多くが、責任あるAIへの取り組みにおいて順調なスタートを切っていますが、一方常時稼働し、急速に適応し、人の介入をほとんど必要としないシステムを適切に監督するための効果的なコントロールの設計においては、依然として課題が残されています。
EY Americas Responsible AI LeaderであるSinclair Schullerは、次のように述べています。「エージェント型AI時代の到来により、システムは高度な自律性と複雑性を備えて動作するようになり、リアルタイムでの監視体制は不可欠となっています。特に、継続的なモニタリングと迅速な対応力は、こうした技術の複雑な特性に対応する上で欠かせません。エージェント型AIの自律性は、リスクを急速に拡大させる可能性があります。そのため、重大な損失を招く混乱を防ぎ、システムの健全性を確保するには、堅固なコントロール体制の整備が不可欠です」
特に遅れが見られるのが、AIと人間が協働するハイブリッド型労働環境への備えです。こうした労働環境を管理する戦略を人事部門が策定している企業は、わずか32%にとどまっています。ただし、エージェント型AIがまだ発展途上であることを踏まえると、この調査結果は前向きに捉えることもでき、企業がAI技術の長期的な影響を戦略的に捉え始めていることを示唆していると考えられます。
従業員がノーコードやローコードツールを使って自らAIエージェントを開発する「市民開発者」の台頭は、企業に一層複雑な課題を突き付けています。
市民開発者に対する企業の姿勢を見ると、32%がこうした取り組みを全面的に禁止しています。一方で、それ以外の企業では、厳しく制限されたユースケースに限って容認するケースから、積極的に推奨するケースまで、対応に幅があります。中には、社内の複数のチームにベストプラクティスの導入を推進している企業もあります。
このように企業の姿勢はさまざまですが、一方で、共通して見過ごされがちなのが、掲げた方針と実際の監督体制とのギャップです。市民開発者による開発を認めている企業のうち、責任あるAIの原則との整合性を確保するための正式な全社的フレームワークを整備しているのは60%にとどまり、実際にどのような活動が行われているかを的確に把握できている企業は半数に過ぎません。さらに、市民開発者によるAI開発を禁止している企業でさえ、12%が実態を把握できていないと回答しており、監督の空白が「シャドーAI開発」を見過ごし、進行・拡大させる余地を生み出しています。企業は実質的に手探りの状態で運用していると言っても過言ではありません。
エージェント型AIや市民開発者の台頭は、本調査結果が示す重要なテーマを浮き彫りにしています。すなわち、責任あるAIのあり方は、技術や職場の行動様式の変化に合わせて、柔軟かつ継続的に進化していく必要があるということです。こうした新たな潮流の恩恵を最大限に生かしながら、リスクの拡大を防ぐためには、明確な枠組み、予防的な監督体制、そしてリーダー層の高い意識が不可欠です。
AIガバナンスと監督体制を強化し、ビジネス成果を向上させるためにC-suiteが取り組むべき3つの行動を紹介します。
責任あるAIの導入と、AIによる企業パフォーマンスの向上は、互いに好影響を及ぼし合う関係にあります。この相互作用は、C-suiteにとって見逃すことのできない重要な意味を持ちます。特に財務パフォーマンスや従業員満足度といった重要分野で、AI投資からより多くの価値を引き出すためには、企業として責任あるAIへの取り組みをさらに前進させることが不可欠です。そのためには、責任あるAIの原則を明確に定義し、それを社内外に発信すること、監督体制・KPI・研修を通じて実行に移すこと、そして効果的なガバナンスを確立すること——これらを含む包括的なアプローチが求められます。
AIは企業活動のあらゆる領域に影響を及ぼします。そのため、C-suite全員がその可能性とリスク、そしてリスクを軽減するためのコントロール措置について理解していることが不可欠です。しかし、本調査により、多くの企業において、最適なコントロール措置を見極める力が不足していることが明らかになりました。
まずは、自社のC-suiteがAIリスクのコントロールについてどの程度理解しているか評価しましょう。対応が不十分な領域があれば、その要因を特定し、的確な研修を通じて強化することが重要です。特に、AIリスクに直接関わる役職には、適切なコントロール措置に関する深い理解が求められます。
エージェント型AIは、これまでにない高度で自律的な能力が期待されますが、重大なリスク要因ともなり得ます。企業は、こうしたリスクを特定し、適切なポリシーを策定するとともに、ガバナンスと監視体制を整えることが不可欠です。
企業が掲げる方針と、従業員によるAIエージェントの開発・活用の実態との間には、しばしば隔たりがあります。そのため、まずはメリットとコストを見極め、その上で自社としての方針を明確にすることが重要です。禁止・許可・奨励のいずれの立場を取るにしても、従業員の実際の取り組み状況を把握し、それを反映した現実的な方針を策定する必要があります。
AIが企業活動に深く浸透する現在、C-suiteは、責任あるAIを、単なる形式的な対応として扱うのか、それとも戦略的成長の原動力として活用するのかという、重要な選択を迫られています。後者を選択した企業は、堅固なガバナンス、明確な原則、情報に基づくリーダーシップを通じて、リスクを競争優位性へと変えることに成功しています。エージェント型AIや市民開発者の台頭は、こうした判断の重要性をさらに高めるでしょう。責任あるAIを実践し、成果を生み出す行動を今起こす企業こそが、将来の成功を手にすることになるでしょう。