EYとは、アーンスト・アンド・ヤング・グローバル・リミテッドのグローバルネットワークであり、単体、もしくは複数のメンバーファームを指し、各メンバーファームは法的に独立した組織です。アーンスト・アンド・ヤング・グローバル・リミテッドは、英国の保証有限責任会社であり、顧客サービスは提供していません。
本稿の執筆者
EYストラテジー・アンド・コンサルティング株式会社 Risk Consulting Process & Controls 公認会計士 松岡 史朗
公認会計士として現・EY新日本有限責任監査法人に入社後、現・EYストラテジー・アンド・コンサルティング株式会社に転籍。内部監査・SOX支援中心に従事し、IT統制を継続して担当。AIを活用した内部監査高度化にも強みを持つ。
※所属・役職は記事公開時のものです
要点
生成AI(Generative AI)の爆発的な普及は、企業経営に非連続な成長をもたらす可能性を秘めている一方で、ブラックボックス性に起因する不確実性は、経営層にとって新たなジレンマとなっています。ハルシネーション(事実に基づかない内容の生成)、著作権侵害、公平性の欠如といったリスクが存在する中、多くの企業では「全面的な利用制限」か「現場任せの無防備な利用」という両極端な対応に陥るケースが少なくありません。
企業がAIという強力なアクセルを最大限に踏み込むためには、その前提として「強力なガバナンス」という安全装置が不可欠です。2025年までに経済産業省・総務省による「AI事業者ガイドライン(第1.1版)」や、国際規格「JIS Q 42001」といった主要な指針が整い、企業が整備すべきガードレールの姿は明確になりました。しかし、「ルールを作ること」と「実効性を担保すること」はまったく別の課題です。
ここで重要となるのが、内部監査部門(第3線)のスタンスです。リスクを恐れて禁止事項を並べるだけのゲートキーパーにとどまるのか。あるいは、これらの各種ガイドラインを羅針盤として活用し、組織がリスク許容度の範囲内で最大のリターンを得られるよう導くナビゲーターへと進化するのか。
本稿では、AIイノベーションを安全に加速させるために、内部監査部門が果たすべき新たな役割とその実践に向けたアプローチを提示します。
なお、文中の意見にわたる部分は筆者の私見であることをあらかじめ申し添えます。
AIガバナンス監査の現場では、「従来のIT監査や業務監査の手法が通用しない」という課題感が聞かれます。AIがもたらすリスクはこれまでのITとは質的に異なるため、監査のアプローチにも変革が求められています。
これまでのシステム監査は、可用性やセキュリティなど、主に「技術的」な側面に焦点を当ててきました。しかし、「AI事業者ガイドライン(第1.1版)」が示すように、AIガバナンスにおける監査スコープは大きく広がっています。
図1 AIリスク・ランドスケープ(監査スコープの拡大)
<図1>に示す通り、従来の技術的リスクに加え、バイアスによる差別やフィルターバブル※による分断といった「社会的リスク」が新たな監査対象となります。監査人はシステムが「停止しないか」といった技術的な側面だけでなく、「社会的な公平性を損なわないか」という、より高次の「インパクト(影響)」を評価しなければなりません。これはJIS Q 42001が要求する「AIシステム インパクトアセスメント」の視点と合致するものです。
※フィルターバブルとは、アルゴリズムがネット利⽤者個⼈の検索履歴やクリック履歴を分析し学習することで、個々にとっては望むと望まざるとにかかわらず⾒たい情報が優先的に表⽰され、利⽤者の観点に合わない情報からは隔離され、⾃⾝の考え⽅や価値観の「バブル(泡)」の中に孤⽴するという情報環境を指す(経済産業省・総務省「AI事業者ガイドライン〈第1.1版〉」14ページ脚注16より)。
従来のITシステムは入力に対して必ず同じ出力が得られる「決定論的」な動作を前提としていました。しかし、生成AIは「確率論的」に動作するため、同じ指示でも異なる回答が生成される可能性があり、そこに従来型システムのような「正解(仕様書)」を定義することは困難です。
このような特性を持つ対象に対して、期初に計画し期末に実施する伝統的な「時点監査」をそのまま適用しても、日進月歩で進化・変容するAIモデルやリスク状況に追い付くことは困難です。ビジネススピードを損なわずにガバナンスを機能させるためには、開発サイクルの内部に監査プロセスを組み込み、より動的にアプローチすることが不可欠です。
AIガバナンス監査を成功させる鍵は、網羅性と実効性を兼ね備えた「評価軸」を確立することにあります。2025年に発行されたJIS Q 42001(国際規格ISO/IEC 42001は2023年発行)は、まさにそのための共通言語を提供しています。
本稿では、以下のステップでフレームワークを構築することを推奨します。
第一歩は、自社がAIエコシステムの中で「AI開発者」「AI提供者」「AI利用者」のどの役割を担っているかを定義することです。
監査人がまず確認すべき点は、「組織が自らの役割を正しく認識しているか」です。例えば、自社では単に「利用者」であると認識していても、外部モデルに対して自社データを追加学習(ファインチューニング)させている場合、実質的には「開発者」としての責任が生じます。このような認識のズレは重大なガバナンス不全に直結するため、プロジェクト単位で役割が正しく定義されているかの検証が必要です。
JIS Q 42001は、通常のリスク評価に加えて、「AIシステム インパクトアセスメント」の実施を求めています。これはAIが個人(人権)や社会(公平性)に与える潜在的な結果を評価するプロセスです。
監査人は、このインパクトアセスメントが法務、倫理、事業部門などの多様な視点を取り込み実施されているか、そして形式的なチェックにとどまらず、実際の意思決定(Go/No-Go判断)に結びついているかを確認する必要があります。
広範なJIS Q 42001の要求事項は、監査の視点から「Governance(ガバナンス)」「Lifecycle(ライフサイクル)」「Data Quality(データ品質)」「Transparency(透明性)」の4つの観点で整理すると、規格の順守状況だけでなく、「AIビジネスのリスクがコントロールされているか」という本質的な保証を提供することが可能になります。
流動的に変化するAI開発の現場において、監査部門が「開発終了後にまとめてチェックする」従来型のアプローチを取ると、ビジネス側から「ブロッカー」と見なされかねません。「Shift Left」と「アジャイル・ガバナンス」という概念を監査プロセスに実装することが急務となります。
「Shift Left」とは、検証プロセスを企画・設計段階に前倒しすることを指します。AI開発では、学習完了後にデータの品質不備を指摘しても、その修正には膨大な時間とコストがかかり、いわゆる手戻りが発生します。
監査部門は開発初期から関与し、プロジェクト計画段階でガバナンス要件が考慮されているかを確認すべきです。これは、内部監査人協会(IIA)が提唱する「Advisory(助言)」機能を最大限に発揮する領域であり、付加価値を提供できる重要な機会となります。
AIはリリースして終わりではありません。環境変化や技術進化に合わせ、ルールや統制自体を柔軟に見直す必要があります。「AI事業者ガイドライン」では、この動的なプロセスを「アジャイル・ガバナンス」と定義しています。
図2 アジャイル・ガバナンスのサイクルと監査の関与
<図2>に示すサイクルの外側から、これからの監査人は「静的なルールの適合性」だけでなく、「このサイクルが高速かつ健全に回っているか(動的な有効性)」をモニタリングする必要があります。例えば、外部環境の変化(新たな規制、脅威、攻撃手法など)が、適時にリスク分析へ反映されているかといった視点です。そのためには、監査プロセス自体もアジャイル化し、AIの開発サイクルに並走させることが重要です。
AI技術の専門性が高まる中、内部監査部門(第3線)が単独ですべてを評価することは現実的ではありません。技術的な詳細に深入りしすぎず、本来の客観的な保証の役割を果たすためには、第1線(現場部門)、第2線(機能部門)との「協調型ガバナンス」が不可欠です。
監査人は、自らがAIのコードレビューを行う必要はありません。技術的な検証(モデルの堅固性評価など)は、第1線や第2線であるAIエンジニアやリスク管理部門が専門的なフレームワークを用いて担うべき領域です。
内部監査の役割は、
を検証する「リスク管理者の監査(Auditing the Risk Managers)」へとシフトします。この連携により、内部監査部門は技術的なブラックボックス化に左右されることなく、ガバナンスの全体像を俯瞰(ふかん)した評価が可能になります。
また、見落とされがちな「外部ステークホルダーとの対話」も重要な監査の視点です。リスクは社外との接点に潜んでいます。外部からの懸念やフィードバックが適切にシステム改善へ還流されているかを確認することは、内部監査部門だからこそ果たせる重要な役割です。
AIガバナンスは、単なる「守り」や「規制対応」にとどまるものではありません。それは、企業がAIという強力なエンジンを搭載し、不確実性の霧の中を迷わず進むための羅針盤です。
JIS Q 42001やAI事業者ガイドラインに基づく監査フレームワークを構築し、Shift Leftのアプローチで開発に並走すること、そして、変化し続けるリスクに対して、協調型の体制で向き合うことが求められます。
これらの実践を通じて、内部監査部門は、経営層やステークホルダーに対し、「われわれのAIは信頼(Trust)できる」という保証を与えることができます。この「信頼」こそが、企業がリスクを恐れずにイノベーションへ挑戦し続けるための基盤となり、結果として持続的な競争優位の源泉となるのです。
AI活用が加速する中、内部監査には従来の技術的視点に加え、「社会的リスク」への対応が求められます。本稿では、最新のJIS Q 42001とAI事業者ガイドラインを共通言語とした監査フレームワークの構築手法を解説。「Shift Left」や「アジャイル」の概念を取り入れ、開発に並走する監査への進化を説きます。
EYの関連サービス
EYのリスクコンサルティングは、さまざまなリスク・テーマへの取り組みに際し、リスクを不確実性として捉え、個々の企業の経営方針や価値創出モデルに沿って、戦略的な仕組みの構築・強化からリスクが顕在化した際の対応までサポートします。
続きを読むEYのプロフェッショナルが、国内外の会計、税務、アドバイザリーなど企業の経営や実務に役立つトピックを解説します。