上空から見た広場を歩く人々

責任あるAIに関するパルス調査

「責任あるAI」により企業の競争優位性を高める方法

競争優位性を獲得するためには、ビジネスリーダーは事業のあらゆる側面に「責任あるAI」を組み込むことによって、消費者の真の関心事に寄り添わなければなりません。


要点

  • 企業の経営層(C-suite)の多くは、消費者がAIに対して抱く懸念に自らがどれだけ寄り添えているかについて過大評価している。
  • 自社の責任あるAIの実践について明確に情報発信することで、企業は消費者が状況を理解し懸念や不安の解消に導くことができ、その結果、AI採用の促進が期待できる。
  • CEOは責任あるAIの推進を担っているが、C-suiteとの見識の統合も必要である。



EY Japanの視点 

社会のさまざまな場面でAIの利用が急速に広がるとともに、エージェント型AIなど新たな技術も登場し、AIに対する期待の高まりとあわせて、利用者にとってはそのAIを利用することに対する懸念・不安も増大しています。

この懸念・不安に答えるため、AIを導入しようとする企業は、自社における責任あるAI利用のための態勢を整備しています。一方、多くの企業が「この態勢はどこまで作れば良いのか」という問題について悩まれており、試行錯誤している実態があります。何らかの法律やガイドラインを守れば良いわけではなく、AIを取り巻く技術や利用形態は日々進化を遂げ、答え自体が変化するものとなっています。

このような環境下では、AIを導入しようとする企業の経営者は、利用者が安心してAIを利用できるようにするために、利用者の懸念・不安を理解し、これに自社がどのように対応しているのかを丁寧に、かつ、継続的に説明することが求められています。つまり、本稿で述べている、傾聴(顧客の懸念・不安の声を聞く)、実践(責任あるAIを開発プロセスに統合)、発信(自社の取り組みを情報発信する)という取り組みを自社のAIガバナンスの枠組みに組み込み、実行していくことで、責任あるAI利用に向けた態勢のあるべき像を目指していくことができると考えます。

EY Japanでは、責任あるAI利用のために必要となる、AIガバナンスの態勢づくりと、顧客とのコミュニケーションの仕組みづくりを通じた企業のAI戦略の実現をサポートします。


川勝 健司
EYストラテジー・アンド・コンサルティング株式会社 リスク・コンサルティング パートナー

菅 達雄
EYストラテジー・アンド・コンサルティング株式会社 リスク・コンサルティング シニアマネージャー



人工知能(AI)の進化はすさまじいスピードです。企業はこぞってユースケースの特定を急ぎ、製品、サービス、業務の全体にAIを統合し、スケールアップを図るべく激しく競い合っています。しかし、AI導入の成功は、スピードだけでは成しえません。AI導入と長期的な価値創造の鍵となる要素として、「責任あるAI」が必須です。

現在、すでに企業の大半は責任あるAIに関する原則を設定していますが、はたしてその実践はどの程度されているのでしょうか。また消費者の懸念はどこまで理解されているのでしょうか。さらには、次世代のエージェント型AIモデルやデジタル技術から生じる新たなリスクへの備えは、十分であると自信を持って言えるでしょうか。

こうした疑問に答えるために、EYは「Responsible AI Pulse Survey(責任あるAIに関するパルス調査)」を立ち上げ、今回初めて実施しました。本調査では、責任あるAI導入に関するビジネスリーダーの実際の見解を、定期的に提供します。

調査結果は、まず、C-suiteの認識と消費者のセンチメントとの間に大きなギャップがあることを明らかにしています。また、多くのC-suiteが、自社で責任あるAIが実践されているかや、消費者の懸念に寄り添えているかについて過信があることを示しています。こうしたギャップはユーザーのAI採用やAIに対する信頼に重大な結果をもたらしますが、今後エージェント型AIが普及していく際にはその影響がさらに高まる危険性があります。

結果として、CEOは例外的な存在として際立っています。CEOは責任あるAIに対する懸念が高く、消費者のセンチメントにより寄り添った見解を示しています。CEO以外のC-suiteが同様の懸念を示した割合は半分程度にとどまっています。これは意識が不十分であることや、責任範囲が限定的であることによると考えられます。顧客の声に耳を傾け、革新のライフサイクル全体に責任あるAIを組み込み、これらの取り組みを企業のブランドやメッセージの中心に据えることで、企業はそうした認識の差を埋めていくことができます。また消費者には、AIがどのように開発・展開されているのかについてより大きな信頼感を得てもらうこともできます。その取り組みによって、信頼が向上し、競争優位性の獲得につながります。

C-suiteの多くはAIの真の可能性を理解していない

回答者の31%と、かなりの割合が、「統合しスケールされたAIソリューション」が自社内で完備されていると述べています。この数字は一見高いようですが、これはすでに多くの企業で日常業務の一部となりつつある大規模言語モデル(LLM)の採用速度を映し出していると考えられます。

あるいは、AIの真の可能性についての理解がCxOでは不十分であることを示しているのかもしれません。組織全体にAIを真に統合し、スケールするということは、LLMの技術的な展開にとどまるものではありません。ビジネスプロセスの再構築、価値あるユースケースの特定とそれらの基盤への投資 ー データの準備とガバナンス、AIソリューションのエンジニアリング、人材育成および変革管理まで ー に至るものです。先見性のあるCxOはこのことを認識し、優位性を保つために必要とされるインフラやスキルの構築を強化しています。


しかしながら、AIは継続的な取り組みが求められる旅と言えます。導入されたテクノロジーは、より高度な技術が登場する中で、しばしば定常状態に達します。次のフェーズはすでに到来しつつあります。企業はエージェント型AIや他の変革的なAIモデルへの大規模投資の準備を進めており、従来の自動化を超えて、推論、意思決定、動的タスク実行への支援を期待しています。

「AIの実装は、従来のテクノロジーの導入とは異なるものです」と、EY Assurance EY Global Responsible AI LeaderのCathy Cobeyは言います。「1回で完了するような作業ではなく、長期間にわたる旅のようなものです。その中でAIのガバナンスとコントロールは、AI利用の投資と変わらない速度で進化し続ける必要があります。AIへの信頼と安心感とを守り続けるには、消費者および企業の経営幹部(取締役会を含む)に継続的な教育を実施することが不可欠です。AI技術に関連するリスクについて、さらには企業がガバナンスとコントロールに基づきどのような対応を取っているかについて知ってもらうことです」

CxOは責任あるAIについての消費者の感じ方を理解できていない

CxOの約3分の2(63%)は、消費者のAIに対する認識や利用について自分たちがよく理解していると考えています。しかし、15の国・地域で15,060人の消費者を対象に調査した、EY AI Sentiment Index Study(センチメント指数試験) *英語版のみ の結果と比較すると、多くのCxOに過信があることが明らかになります。

AIの精度やプライバシー、説明責任や責任の所在に至るまで、責任あるAIの原則の範疇において、消費者がCxOよりも強い懸念を抱いていることが一貫して示されています。例えば、企業がそれらの原則を守れないことを懸念する割合は、消費者がCxOに対してほぼ2倍です。


CxOはまた、AIがもたらし得る社会的害悪のもろもろに対する懸念が、消費者よりも小さくなっています。興味深いことに、両グループの感じ方が最も近接しているのは雇用喪失の課題ですが、どちらのグループも大きな懸念は示していません。このことは、近年メディアでAI関連の雇用喪失の可能性がどれほど報じられてきたかを考えると、着目すべき事項です。それよりも消費者が最も懸念する課題は、AIが生成する誤情報、個人を操作する目的でのAIの使用、社会的に弱い立場にある人々に対するAIの負のインパクトなどであり、CxOよりもはるかに強い懸念を抱いています。

こうしたギャップの一因には、AIガバナンスの成熟度、リスク管理のアプローチ、あるいは設置された安全策について、企業の情報発信が不十分であることが考えられるかもしれません。AIのリスクプロファイルや責任あるイノベーションの実践について透明性を高めることで、このギャップを埋めることが可能です。その結果、消費者が状況を理解し不安を解消できることにつながります。

よりAIに関与するほど、より多くの過信が生じるのか

注目に値するのは、まだAIの統合を進めている最中とする企業は、消費者の意見との一致度を評価する際に、より慎重である傾向が見られることです。AIを統合中のグループに属するCxOでは51%が自分たちが消費者をよく理解していると考えているのに対し、AIがすでに自社のビジネス全体に統合完了とする企業のCxOでは71%です。

また、AIを統合中の企業では、消費者と同様に懸念の程度が全般に高く、特に責任あるAIに関する懸念において顕著です。このグループのCxOは、プライバシー、セキュリティ、信頼性などの重要な原則においてより高い懸念を示しており、これは消費者の懸念とよく一致しています。


この結果は、AI導入の初期段階にある企業に伴う敏感性の高まりを示している可能性があります。この段階ではガバナンス構造の形成やステークホルダーとの関係構築の最中にあるものです。対して、AI導入においてより高い成熟度にあるとするCxOは、自社のコントロールや安全策の強靭さに自信を得ていることから、懸念のレベルが低下すると考えられます。

また、この不一致の原因として「AIを統合完了」とするグループのCxOの多くがAIの可能性についての認識が十分でないこともあり得ます。もし、そうであれば、消費者との懸念の一致度やAIガバナンスの堅牢性について過信している可能性があります。

いずれにせよ、消費者の懸念とCxOが認識する一致度のギャップは依然として顕著であり、このことは結果としてAIを活用したサービスに対する社会的信頼感に影響を及ぼすことが考えられます。堅牢な責任あるAIが実践されていても、どのようにリスクが管理されているかを消費者が理解していなければ、AI利用をためらうかもしれません。だからこそ、透明性とコミュニケーションが鍵となるのです。

まさに、EY AI Sentiment Index Studyは、消費者が抱くAIへのオープンさと実際のテクノロジー導入状況との間に顕著な差があることを示しています。特に信頼が最重要とされる分野である金融、健康・医療、公共サービスなどでその差が目立っています。

AIモデルが新しいほど、ガバナンスにより大きなチャレンジが求められる

多くの企業は、生成AIやLLMについて責任あるAIの原則を実施することに苦慮しています。責任あるAIの原則9項目のうち、企業が強固なコントロールを設定できているのは平均で3項目のみです。また半数以上(51%)が、自社で現在のAI技術に関するガバナンスフレームワークを開発するには課題が多いことに同意しており、今後新たに登場するAI技術についての見通しはなお困難としています。さらにCxOの半数が、自社のテクノロジーに関連するリスクへのアプローチは、AIの次の波で顕在化するであろう課題に対処するには不十分であると述べています。

実際には、こうしたテクノロジーをすでに使用しているか、2026年中に使用開始を予定する企業の多くで、新技術が引き起こすリスクについて中程度の理解すら伴っていない場合があります。企業は、AIに対する信頼感の向上と導入促進のために、この認識のギャップを今すぐに埋める必要があります。


CEOが変革をリードする

CEOは責任あるAIの課題に対する認識と消費者の懸念との一致度において、他のC-suiteとは異なっており、本調査での明るい希望となっています。調査対象の役職7つからなる経営層(CEO、CFO、CHRO、CIO、CTO、CMO、CRO)の回答の中で、CEOの回答には次のような特徴があります。

  • 責任あるAIに関連する懸念について、消費者と最も一致度が高い。
  • 自社のコントロールの強靭性を過大評価していないとみられる。
  • 新たに登場する技術とそのリスクに最も精通している(CIOとCTOに次ぐ)。

この結果は、AIをはじめとするすべてが集約されるというCEOの広範な責務を反映しているものと考えられます。CEOの50%がAIに対する主要責任を負うと述べており、これはCTOとCIOを除くどのCxOよりも多い割合となっています。CEOはまた、CMOを除く調査対象のどの経営幹部よりも顧客と接する機会が多いことから、消費者の懸念をよりよく理解していると考えられます。

AIは非常に広範なテクノロジーであって、企業のあらゆる側面とビジネスモデルに影響を及ぼします。CEOのイノベーション、リスク、ステークホルダーのニーズに対するバランスの取れた見解は、CEOを責任あるAIを推進するにふさわしい立場とし、他のC-suiteを同様の見解に至るよう導くことができます。

CxOのための3つの行動:傾聴する、実践する、発信する

これらの結果に基づいて、CxOは何をすることが求められるでしょうか。EYは重要な行動3つを提案します。

  1. 傾聴する:C-suite全員に顧客の声に耳を傾けさせる

    消費者はAIの責任ある使用について、また企業がAIの責任ある原則を順守するかについて、大きな懸念を抱いています。C-suiteの全員が、顧客の持つ懸念や選択傾向に対する理解を深める必要があります。重要なのは、顧客に直接関わる役割であるCEOやCMOのようなリーダーだけでなく、CTOやCIOのような従来バックオフィスとされる部門の上級管理者も一緒に取り組むことです。

    この実現には、いくつかの方法が考えられます。C-suite全員が連携する機会を構築し、顧客と直接接しない部門のリーダーが顧客に日々接しているリーダーから学べるようにします。さらに進めて、CIO、CTO、CROなどの役員を顧客と接する立場に置くことです。顧客からの反応に触れさせ、顧客調査を通じて学び取ってもらいます。フォーカスグループに参加してもらうことも良いでしょう。できる限り、目の前に顧客がいる環境に置くようにします。例えば医療企業であれば、すべてのC-suiteに対して年に数日、病院で患者と接することを義務付けるなどが考えられます。

  2. 実践する:開発プロセス全体に責任あるAIを統合する

    責任あるAIは、初期のアイデア創出から導入まで、AIの開発とイノベーションプロセス全体に組み込まれる必要があります。技術設計者はすでに、人間中心のデザインやA/Bテストなどの手法を通じ、ユーザーエクスペリエンスを最適化しています。こうしたベストプラクティスを基に、「人を中心に据えた責任あるAIデザイン」を、自社のエンド・ツー・エンドのAIイノベーションに不可欠な要素とするのです。規制要件を超えて自社のAIアプリケーションやユースケースから明らかになった主要なリスクや顧客の懸念を解消する、堅牢なアプローチを開発することが求められているのです。

    エージェント型といった、新しいAIモデルはすでに存在しています。他のモデルも続くでしょう。最近の経緯を見ると、その登場は想定より早まることが推測されます。これらの新たに登場するモデルがどのような新しいリスクやAIガバナンスの課題を生み出すかを理解し、対応方法の特定を今すぐに開始することが重要です。

    社内トレーニングや業界におけるカンファレンスへの参加、外部専門家との関わりを通じて、自らとチームのスキルを継続的に向上させ、これらの技術が進化し続ける中で高まる新たなリスクに先んじる態勢を維持します。

  3. 発信する:責任あるAIへの自社の取り組みを伝える

    責任あるAIは、単なるリスク管理やコンプライアンスの実践以上のものです。調査結果は、責任あるAIが競争上の差別化要因になり得ることを示唆しています。消費者はAIについて切実な懸念を抱いています。自社のシステムを消費者が信頼しなければ、採用には至らないでしょう。消費者の懸念の解消に動かなければ、最終的には企業収益に悪影響を及ぼすことが考えられます。

    しかしこのことは、市場機会も示唆しています。消費者の懸念に各社がどう取り組んでいるかについての透明性の高い情報がない場合、企業は差異ないものとしてひとまとめに見られることになります。責任あるAIを先導し、同時に自社のブランドやメッセージの中心に据えることで、現在だけでなく将来の顧客の関心をも引くこととなり、競争に優位なポジションを築くことが可能になります。

サマリー

競争優位性を獲得するために、CxOは顧客がAIに対して抱く懸念を重要に扱い、責任あるAIを開発サイクル全体に組み込んで、AIリスクの軽減がどのように実践されているかについて積極的に情報発信をしていかなければなりません。消費者の考え方を理解し、イノベーションのあらゆる段階で責任あるAIを統合することが鍵となります。このアプローチを取ることは、企業が自社のAIアプリケーションに対する信頼を確立できると共に消費者の期待に応え、さらに今後登場するAIテクノロジーによって生じるリスクの軽減に有益です。そうすることで、企業は責任あるAIのリーダーとしての地位を獲得し、長期的な価値を創造することが可能になります。


この記事について

執筆協力者