AIエージェントを活用し成果につなげるためのスキル変革とはー「次世代の企業変革を導くAIエージェント~Strategy×People×Technologyの視点から~」セミナーレポート

「次世代の企業変革を導くAIエージェント~ Strategy×People×Technologyの視点から~」セミナーレポート

AIエージェントを活用し成果につなげるためのスキル変革とは


急速に進化するAIエージェントの台頭が、経営戦略から人材マネジメント、意思決定プロセスまで大きく変えようとしています。

企業のデジタル変革が一段と加速する中で、どのような視点でAIと向き合うべきか、EYのプロフェッショナルが多角的に議論しました。


要点
  • AIエージェントは自律的にタスクを完了させる強力なツールであるが、4つの落とし穴――目標設定の失敗による「暴走」リスク、人の承認をバイパスする「制御喪失」リスク、因果関係が「追えない」リスク、および「育てない」リスクが潜んでいる。
  • 企業の競争力は「AIを育てられる組織」であるかどうかが成否を分け、AIをマネジメントする能力が新たな重要スキルになる。
  • ミドルマネジメントに求められるスキルが業務遂行能力(How)から、本質を見極めてビジョンを打ち立てる能力(What/Why)へとシフトし、既存のやり方からの「アンラーニング」が求められる。


Section 1
AIエージェントの本質と新たなリスクとは

2025年10月27日に刊行された書籍『AIエージェント』(日本経済新聞出版)に関連する本セミナーの第1部では、著者である当社所属のテクノロジーコンサルタントが最新動向を解説しました。

スピーカー:
城田 真琴 EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング ディレクター



AIプロジェクトの実態:大多数はリターンを得られていない

マサチューセッツ工科大学(MIT)の最新調査によると、AIパイロットプロジェクトのうち、測定可能な損益インパクトを生み出しているのはわずか5%の組織に過ぎません1。残りの95%は、事実上リターンゼロの状態にとどまっています。成功率が低い大きな理由の1つとして、AIを「導入して終わり、育てていない」ことが挙げられています。

企業の生成AIへの投資は、300~400億米ドル規模に達するものの、その成果は著しく二極化し、「生成AI格差」が拡大している状況です。この格差の要因は、AI投資の壁としてよく言及される人材不足、インフラ環境、法規制よりも、組織の「学習力」にあるとされています。

EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング ディレクター  城田 真琴
EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング ディレクター
城田 真琴
1. MIT NANDA ”State of AI in Business 2025”、 https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf   (2025年11月21日アクセス)


AIエージェントの本質は「自律性」と「目的指向性」にある

AIエージェントは、人から細かい指示を受けることなく、目標達成のために自律的に動き、タスクをこなすソフトウエアシステムです。タスクの「支援」ではなく「完了」を目指す点が、これまでの生成AIとの大きな違いです。例えば、ChatGPTやGeminiが詳細なプロンプトによる「指示待ち」であるのに対して、AIエージェントは自らプロンプトを生成し、必要なタスクを定義し、ツール群を動かし情報収集、社内データベース検索や分析・レポーティングなどを自動的に行うことができます(図1)。AIエージェントは、目的を与えると自律的にタスクを実行することができるAIです。

図1:AIエージェントの定義

図1:AIエージェントの定義

AIエージェントの特性がもたらす新たなリスク

AIエージェントが持つ「自律性」と「目的指向性」が、新たなリスクを生む可能性があります。まず、人の介入なしにタスクを実行する自律的な能力には、制御喪失のリスクが伴います。従来のAIにはなかった「実行権限」を持つようになるため、失敗時の影響も大きくなります。また、与えられた目標の達成に向けて自ら計画を立てるAIが目標設定に失敗した場合、暴走につながるリスクが考えられます。AIエージェントの導入を成功させるためには、新たに生じる以下の4つのリスクを考慮し、対策を講じる必要があります(図2)。

図2:AIエージェント導入時に陥りやすい落とし穴

図2: AIエージェント導入時に陥りやすい落とし穴

落とし穴1:目標設定の失敗と暴走リスク

まず、AIが人の意図しない極端な行動を選択してしまう「アライメントの失敗」から、AIが「暴走」するリスクが生じます。例えば「コストを削減せよ」という曖昧な目標を与えられても、人なら「顧客満足や取引先との信頼関係に配慮しつつ、持続可能な形で削減する」と理解します。

しかし、AIは指示には従っても、意図は理解しません。また、AIは「経済合理性」を理解しても、倫理・信頼・取引関係といった「非数値的価値」は考慮できないため、人の意図した結果を得られない場合があります。つまり、AIは倫理や関係性を読み取れず、「支出を最小化することが最優先」だと誤解する可能性があります。例えば、短期的なコスト削減指標を優先し、顧客サポート品質を低下させる、あるいはサプライヤーへの支払いを遅延させてしまうなど、常識や倫理に欠ける解釈をしたAIが、企業価値を損なう望ましくない副作用をもたらす恐れがあるのです。

これらを防ぐためには、目標だけでなく「やってはいけないこと(ガードレール)」を明確に定義し、暗黙知を形式知としてAIに翻訳するプロセスが必要です。AIエージェントには、「何をするか」だけでなく、「どう振る舞うべきか」教えなければなりません。

落とし穴2:実行権限の拡大による制御喪失リスク 

次に考えられるのは、AIエージェントが実際のシステム操作まで担えるようになったことで生じる「制御喪失」リスクです。AIは「提案」から「実行」するエージェントへと進化しています。従来はAIの提案に対し、人が承認した上で実行するプロセスが一般的でした。

しかし、エージェント化が進むと、人の承認を経ずにCRMの顧客データを削除したり、決済システムで誤送金を行ったりと、取り返しのつかない事態を招いてしまう恐れがあります。AIエージェントの「実行権限の拡大」が、従来のAIと一線を画す最大のリスクと言えます。

これらを防止するためには、以下3つの対策が有効です。

  1. 最小権限の原則:AIエージェントが行う業務に必要最低限の権限を付与し、不要な機能へのアクセスを遮断する
  2. 段階的な権限付与:初期段階では限定的な権限をAIエージェントに付与し、運用実績とリスク評価に基づいて段階的に拡張する
  3. 人を介在させる「Human-in-the-loop」設計:厳格な権限管理とガバナンス態勢を構築し、データ削除、契約締結、支払い実行などの重要判断は、人が最終承認するプロセスを確立する

ただし、人の介在を増やし過ぎればスピードと自律性が損なわれるため、安全性を考慮し統制を効かせながら、いかにして総合的にバランスを取るかが重要です。

落とし穴3:因果関係が追えないリスク

3つ目に考えられるのは、AIエージェントが自律的に複数のタスクを実行すると、「なぜその判断をしたのか」がブラックボックス化する因果関係が「追えない」リスクです。例えば、複数のエージェントが連携して目標を達成するマルチエージェントシステムで問題が発生した場合、「どのエージェントの、どの行動や判断が原因なのか」を特定することが極めて困難です。

複数の工程をAIが分業し判断するマルチエージェントシステムでは、「責任の分散」が生じます。また、各エージェントが自身のKPI最大化を優先して行動すると、エージェント間で「目的の衝突」が発生します。さらに、各エージェントの責任範囲の曖昧さから、自機能では行えないタスクを「他エージェントへ委譲」し連鎖すると、「意図しない再帰呼び出し」につながります。

これらはどの業界でも起こり得るリスクです。例えば、金融業界の自律型評価エージェントにおいて、マネーロンダリング対策(AML)が誤判定した出力を、ローン審査AIがそのまま受けて審査を自動拒否に至るケースがあるかもしれません。また、公共部門のチャットボットエージェントの例では、質問応対AI、FAQ生成AI、および法令照会AIなどが作動し、市民が受け取った回答に誤りが生じた場合、どのエージェントが誤情報を生成したか特定できない事象が考えられます。

対策としては、AIエージェントの「行動ログ」「意思決定プロセスの可視化」「根拠データの記録」を標準化し、監査可能な状態に保つことが求められます。

落とし穴4:AIを育てないリスク

4つ目は、AIを「育てない」リスクです。AIエージェント導入の可否は、導入後3カ月の「現場のチューニング」期間に左右されます。この期間中に現場でAIに暗黙知を教え込み、正しく働くための文脈・常識・倫理を教えることが重要です。LLM(大規模言語モデル)と同様に、AIエージェントの競争力は、「AIそのものの性質」ではなく、それを育てる「人の質」で決まると言っても過言ではありません。

AIは文脈を理解しません。導入したてのAIエージェントを「地頭の良い、現場を知らない新人」と捉え、企業固有のドメイン知識を習得させると判断精度が向上し、業務に適応できるようになります。そのためには、「AIトレーナー」がAIに目的・制約・前提を伝える「コンテキスト設計」を行い、学習させ改善する「フィードバックループ」を作り、最終的には人の判断軸でAIの出力の妥当性を「監査・評価」する役割を担う必要があります。トレーニングしたAIが、他社には再現が難しい「無形資産」に進化することができれば、競争優位の源泉となるでしょう。
 

落とし穴を回避しAIエージェントを運用するには

AIエージェントの運用には、「継続的な学習サイクル」を前提とした設計が求められます。AIエージェントを導入するタイミングが、育成期間の始まりであり、AIトレーナーが「現場の翻訳者」となってAIを指導し、補正を続けていくことが重要です。また、AIで「やること」と「やらないこと」の境界を決めておき、「人の承認」を前提とした自律性を設計し、追跡できるAIガバナンスを最初から組み込んでおくことが必要です。AIエージェントの成熟度と競争力は、どう運用されるかが決め手となります(図3)。

図3:AIエージェントの運用

図3:AIエージェントの運用

Section 2
AIエージェントを「育てる」組織へ――賢いが常識のないAIを導き、成果につなげる組織デザインとは

第2部のパネルディスカッションでは、「成果を生む組織デザイン」をテーマに、Strategy(戦略)、People(組織)、Technology(技術)の各プロフェッショナルが、AIと人が共に成長する実践的アプローチについて議論しました。

パネリスト:
岩泉 謙吾 EYストラテジー・アンド・コンサルティング株式会社 EYパルテノン ストラテジー パートナー
桑原 由紀子 EYストラテジー・アンド・コンサルティング株式会社 ピープル・コンサルティング パートナー
城田 真琴 EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング ディレクター

モデレーター:
松本 剛 EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング Microsoft統括 パートナー



論点1:AIエージェントは「賢い新人」――組織文化への適応がカギ

AIエージェントは知識が豊富ですが、文脈を理解せず、「AIトレーナー」が一定の期間をかけて現場の暗黙知を教え込む必要がある、というお話がありました。導入直後のAIはどのような存在でしょうか?

城田:AIは、まるで「地頭の良い、現場を知らない新人」です。確かに膨大な知識や情報を持っていますが、会社ごとの業務プロセスや組織文化、現場の空気感などは全く理解していません。例えば、一般的なルールや社会規範は知っていても、その企業特有の「常識」や「暗黙の了解」には対応できません。

そのため、AIを導入しただけで成果が出るわけではなく、現場の業務や文化に合わせて「育てる」ことが不可欠です。実際、多くの企業でAI導入の成果が出ていない背景には、こうした適応の難しさがあります。AIの威力を取り込むには、企業独自の知見や経験をAIに伝え、業務にフィットさせていくプロセスが必要です。

EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング Microsoft統括 パートナー  松本 剛
EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング Microsoft統括 パートナー
松本 剛

論点2:AIと人の役割分担――スキルベースの組織設計

AIを組織の一員として活用するには、どのような組織設計が必要でしょうか? 

桑原:これからの組織では、「どの仕事を人が担い、どれをAIに任せるか」を明確にすることが求められます。従来のように「誰がどの部署にいるか」ではなく、業務を細分化し、必要なスキルごとに担当を決める「スキルベース」の設計が重要です。

AIもワークフォースの一部として捉え、育成対象としていくことが今後求められるでしょう。特に、テクニカルなスキルはAIがすぐに学習できますが、組織の暗黙知やコミュニケーションスキルなど、言語化が難しい部分は人が丁寧に伝えていくことが不可欠です。こうした「人ならでは」のスキルをどうAIに伝承するかが、今後の組織運営の大きな課題になると考えられます。

EYストラテジー・アンド・コンサルティング株式会社 ピープル・コンサルティング パートナー 桑原 由紀子
EYストラテジー・アンド・コンサルティング株式会社 ピープル・コンサルティング パートナー
桑原 由紀子

論点3:AI時代のマネージャーに求められる新しいスキル

AIエージェントの活用が進む中で、マネージャーにはどのようなスキルや役割が新たに求められるようになるのでしょうか?

桑原:これからのマネージャーには、従来の「How(どうやるか)」に加えて、「What(何をするか)」「Why(なぜそれをするか)」という問いを立てる力がより重要になります。AIが業務の手順や方法論を担うようになることで、マネージャーは組織のビジョンや目的を明確にし、チームに示す役割が求められます。

また、AIや多様な人材と協働するためには、これまで曖昧だったコミュニケーションスキルや暗黙知を、組織として定義・言語化していくことも必要です。さらに、これまでのやり方に固執せず、新しいスキルや考え方を柔軟に学び直す「アンラーニング」も不可欠です。

つまり、AI時代のマネージャーには、目的や意図を言語化し、問いを立て、ビジョンを示し、変化に適応する力が強く求められるようになると考えています。
 

論点4:AIがもたらす業務の変化と、普遍的な人の役割

AIの活用が進むことで、現場や人材にはどのような変化が起きていますか? 

岩泉:コンサルティング現場では、調査や分析業務の多くがAIに置き換わりつつあります。特に生成AIの登場以降、コンサルタントはAIを日常的に使いこなすようになり、業務の効率化が進んでいます。しかし、AIは「ストレートに意見を述べる」ことができるため、人への忖度(そんたく)や遠慮が入りにくい分、新しい価値や示唆を生み出す場面も増えています。最終的な意思決定や伝達は人が担うため、AIと人の役割分担がより明確になってきています。

われわれがクライアント企業に伴走することのある中期経営計画の策定や、業務の自動化にAIが活用されていく中で、逆にAIにできないこと、人にしかできないことは何でしょうか?

岩泉:AIは膨大なデータをもとに計画を立てたり、分析や調査を行ったりすることは非常に得意です。しかし、実際に計画を「実行」し、関係者と合意形成を図り、現場でタイミングよく判断を下すといった部分は、やはり人にしかできません。AIは、PDCAサイクルのうち「プラン(計画)」や「チェック(分析・評価)」は得意ですが、最終的に「Do(実行)」は人が担わなければなりません。

例えば、同じ戦略でも「誰が」「いつ」実行するかによって結果が大きく変わりますし、現場の空気や暗黙知、微妙なニュアンスを読み取って最適なアクションを選ぶのはAIには難しい領域です。AIの提案を生かしつつ、最終的な意思決定や実行は人が担うことで、組織としての成果につながると考えています。

EYストラテジー・アンド・コンサルティング株式会社 EYパルテノン ストラテジー パートナー 岩泉 謙吾
EYストラテジー・アンド・コンサルティング株式会社 EYパルテノン ストラテジー パートナー
岩泉 謙吾

論点5:AIを育成することで、人も成長する

AIを育てることで、人にはどのような成長が期待できますか?それぞれの立場からお聞かせください。

城田:AIに適切な指示を出すためには、仕事の目的や意義を構造化し、分かりやすく伝えることが求められます。これは新人社員に仕事を教えるのと同じで、背景や目的を説明しないと、AIも期待通りに動いてくれません。また、AIが出したアウトプットを評価・レビューする力も自然と鍛えられます。

AIの提案や分析結果が本当に適切かどうかを判断するには、業務経験や現場感覚が不可欠です。さらに、AIが気付かない潜在的なリスクや未定義の論点を発見する力も、人ならではの強みとして磨かれていきます。このようにAIを育てる過程で、人もより高いレベルの思考力を身に付けていくことができるのではないでしょうか。

桑原:AIエージェントを活用することで、現場マネージャーの過重な業務負担が軽減され、より本質的な業務やビジョン策定に時間を割けるようになるはずです。AIをうまく生かせると、パワフルな部下を持つのと同等の大きな強みになり、組織力の強化にもつながると思います。次世代を担うミドルマネジメント層のキャリアがサステナブル(持続可能)になるという前向きな側面もあるでしょう。

岩泉:AIが調査や分析を担うようになっても、最終的な意思決定や実行は人が担う必要があるため、AIの出力結果を精査し、それらを現場で生かす力が人に求められるでしょう。AIが気付かない潜在的なリスクや未定義の論点を発見する力、また「いつ」「誰が」実行するかというタイミングの判断は人にしかできないことですし、これらがまさに「人ならでは」の成長領域です。AIエージェントと共に経験を積み、人もより高い次元による問題発見力を身に付けていくことができるでしょう。


サマリー

AIを単なるツールとして「どう使うか」だけでなく、「どう育て、どう任せるか」――その問いに向き合えるかどうかが、企業競争力に直結。組織文化や人材育成、マネージャーの役割変化など、多面的な視点から組織デザインの在り方が問われます。AIエージェントを活用し成果につなげるためには、企業独自の文化や業務への適合、そして人のスキル変革が不可欠です。


関連書籍

AIエージェント

AIが「指示を待たずに動く」時代が始まりました。AIエージェントと共に働く社会で、私たちに問われているのは、命令ではなく、”問いを立てる力”。仕事とキャリアを再定義し、思考と行動を進化させる一冊です。


    この記事について

    執筆者