2026年に生成AIがもたらす新たな変革と課題とは (2025年11月20日開催セミナーレポート)

2025年11月20日開催セミナーレポート

2026年に生成AIがもたらす新たな変革と課題とは


ITGIJapan カンファレンス2025「AI活用に向けた社会基盤整備」において、EYストラテジー・アンド・コンサルティングの城田真琴が講演を行いました。

業界の話題であり続け、日々勢いを増す生成AI――2026年の論点について、ビジネス、社会、テクノロジー3つの側面から解説しました。


要点

  • テクノロジーイノベーションによって生成AIとAIエージェントの開発・普及がかつてない勢いで進み、ビジネス、社会に大きな変化と新たなリスクが生じている。
  • 「AI検索」や「アクハイアリング」などの新たな動きが、業界構造や人材戦略を急変させている。
  • 大規模言語モデル(以下、LLM)やマルチエージェント技術の進化により、環境コストや標準プロトコルへの対応が重要になっている。

1

Section 1

AIがもたらすビジネスインパクトとは

生成AIやAIエージェントの登場は、ビジネスの構造や競争環境に急激な変化をもたらしています。生成AIを巡る議論は、試験的な活用段階から、企業活動や社会構造そのものに影響を及ぼすフェーズに入っています。企業の成長戦略や人材獲得のあり方も、AIによって再定義されつつあります。


論点1:AI検索はWebサイトのトラフィックをどう変えたのか

まず着目すべきなのは、「AI検索」の普及がWebサイトへの人の流れを大きく変えている点です。Google検索では、AIが生成した要約が検索結果の上部に表示されるようになり、ユーザーは表示されたリンクをクリックすることなく疑問を解消。こうしたAI検索による「クリックレス」な情報取得が進み、従来のようにユーザーが表示された検索結果から各社のWebサイトをいちいち訪れる必要がなくなりました。

Wikipediaの場合、一定期間にページビューが急増し、その多くが生成AIの学習用クローラーによるもので、実際には人の閲覧数が減少していることが明らかになりました。結果として、ニュースサイトや専門メディアへの流入は減り、広告収益を前提としたビジネスモデルは岐路に立たされています。日本の新聞社が「記事の無断利用による著作権侵害」として、生成AIベンダーに対して相次ぎ提訴に踏み切ったのも、こうした業界の構造変化が背景にあります。

ただし、クローラー拒否や訴訟といった「守り」だけでは、本質的な解決策にはなりません。ユーザーにとって魅力あるコンテンツの開発、会員制サービスによる直接的な顧客関係の構築、AIベンダーとのパートナーシップ(コンテンツ利用契約の締結)など、AI時代を前提とした収益モデルへの転換を図る「攻め」の対策が求められています。生成AIの台頭を不可逆的な変化と捉え、「脅威」ではなく、「再構築の機会」として認識し直す必要があるでしょう。

2026年は、メディア企業とAIベンダーとの関係性が大きく変化する年となりそうです。生成AI企業とメディア企業間の綱引きがどのように決着するのか、注目すべき点と言えるでしょう。

EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング ディレクター 城田 真琴
EYストラテジー・アンド・コンサルティング株式会社 デジタル・エンジニアリング ディレクター 城田 真琴

論点2:大手テック企業がしかける「アクハイアリング」とは何か

もう1つの重要な変化が、買収(Acquisition)と雇用(Hiring)を組み合わせた「アクハイアリング」と呼ばれる戦略的な人材獲得手法の出現です。これは企業やプロダクトではなく、専門領域の優秀な研究者やエンジニアを獲得することを目的とした買収を指すもので、巨額なライセンス料の支払いや株式取得などがその実現手段となっています。2024年から2025年にかけて、GAFAM各社も急成長するAI企業に対してアクハイアリングを実施しました(表1)。背景には、各国で進むM&A規制の厳格化があります。企業丸ごとの買収が難しくなる中で、人材獲得にフォーカスした新たな手段として有効な選択肢となっています。特に生成AI分野では、開発が高単価かつ継続利用されやすいことから、人材の価値が一段と高まっています。

一方で、規制当局もこの動きを注視しており、将来的に制限がかかる可能性も否定できません。2026年に向けて、アクハイアリングが常態化するのか、それとも新たな法規制のルールが敷かれるのかは、業界全体に影響を及ぼすテーマの1つです。

表1:GAFAMによるアクハイアリング例

表1:GAFAMによるアクハイアリング例
出所:各種公開情報を基にEY作成

2

Section 2

AIが引き起こす社会課題とは

AIの進化がさまざまな場面で恩恵をもたらしている一方で、新たな社会課題も生じています。利便性の裏側にあるリスクやコストをどう管理するかが問われています。


論点3:AIエージェント台頭による新たなリスクとその対策とは

AIエージェントは、人から細かい指示を受けずに、目標達成のために自律的に動き、タスクをこなすソフトウェアシステムです。ChatGPTに代表されるこれまでの生成AIとの大きな違いは、タスクの「支援」ではなく「完了」を目指す点にあり、業務効率化の切り札として期待されています。一方で、新たなセキュリティリスクも顕在化しています。

AIエージェントを狙ったフィッシング詐欺など、AIの自律性や情報収集能力を逆手に取った新たな悪用手法が発生しています。例えば、人気サイトに悪意あるリンクを仕込み、AIエージェントを間接的に誘導する「間接プロンプトインジェクション」は、ユーザーを直接だますのでなく、ユーザーの代理として自律的に動くAIエージェントをだます狙いがあるのが特徴です。

AIエージェントはWeb上のランダムなサイトを信頼せず、SNSなど人気サイトを信頼する傾向が指摘されています。ハッカーはこの傾向を悪用し、ありふれた投稿に見せかけ悪意のあるサイトへのリンクを貼った投稿を作成。AIエージェントはリンクをたどり、偽サイトにアクセス、カード情報を入力し、ユーザーアドレスからフィッシングメールを送信するなどのケースが考えられます(図1)。他にも、外部サービス連携の悪用やエージェント間攻撃などがあり、攻撃手法も高度化かつ多様化しています。

こうした脅威への対策として重要なのは、AIエージェントに与える権限を最小限に抑えること、別のAIエージェントによる検証プロセスを設けること、人が最終判断を行う仕組みを残すことです。自律性を高めるほど、管理設計の巧拙がリスクを左右します。

図1:間接プロンプトインジェクションと対策例

図1 間接プロンプトインジェクションと対策例 

論点4:LLMの環境コストとバランスを取るには

もう1つ見過ごせないのが、環境への影響です。LLMは高精度である一方、膨大な電力を消費し、CO2排出量も増大します。LLMの環境コストを包括的に評価する論文も発表されており、モデルの規模、推論の深さ、環境コスト間のトレードオフの存在が明らかにされました1

パラメータ規模が大きいほど精度は向上しますが、生成トークン数も大幅に増加し、電力消費や環境負荷も跳ね上がります。推論処理が深いモデルほど、生成トークンも多くなります。全てのタスクで必ずしも大規模モデルや推論特化型モデルを使用する必要はなく、用途に応じたモデルの使い分けが可能です。タスクに応じて小型モデルや(推論特化型ではない)一般モデルを選択することが環境面やコスト面でメリットをもたらします。

生成AIの活用が広がるほど、サステナビリティの視点は避けて通れません。環境コストを意識した設計は、企業の社会的責任としても重要性を増しています。


  1. Maximilian Dauner and Gudrun Socher, Munich Center for Digital Sciences and AI (MUC.DAI), HM Hochschule München University of Applied Sciences, Munich, Germany ” Energy costs of communicating with AI” frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1572947/full(2025年11月10日アクセス)


3

Section 3

AI開発を支えるテクノロジーの最前線とは

生成AIを支えるテクノロジーの進化に目を向けると、モデルとインフラの両面で大きな転換点が訪れています。


論点5:OpenAIの「GPT-5」モデルで何が変わったのか

2025年8月にリリースとなったOpenAIの「GPT-5」モデルでは、タスクに応じてAI自身が最適なモデルを自動選択する「Auto」機能が追加されました。システム側がクエリを解析し、リアルタイムルーター機能が自動でモデルを振り分けます。ユーザー側でモデルの違いを意識しなくても、適切な処理が行われる設計になっています。

多くのユーザーは実行したいタスクに対して「どのモデルが最適か」を判断することが難しく、不要に大きなモデルを動かし、コストやCO2排出量が増える、逆に小さいモデルを選ぶと精度不足に陥りかねません。「Auto」機能では、こうした「ユーザー体験の簡素化」を図り、シンプルな質問には小型モデルを使うことで環境負荷・コストを抑える「効率性」を発揮し、また複雑な推論が必要な場合のみ大型推論モデルを呼び出す「性能確保」ができるようになりました。

さらに、ハルシネーションの発生率が大きく低下したことも着目点です。情報が不十分な場合は無理に答えを生成せず、「分からない」と返し、根拠のある情報のみ回答する設計に変わりました。これにより、正確性が求められる領域や規制の厳しい金融・医療などの業界で特に効果を発揮することが期待されます。

論点6:マルチエージェントを実行するプロトコルとは何か

AIエージェントの活用が進むにつれ、単体ではなく、複数のエージェントが連携してタスクを遂行する「マルチエージェント」構成が現実味を帯びてきました。ここで重要になるのが、エージェント同士や外部ツールを安全かつ効率的につなぐためのプロトコルです。

業界標準となり得るエージェントプロトコルの代表的なものとして、MCP(Model Context Protocol)やA2A(Agent-to-Agent Protocol)が挙げられます。MCP は、AIアプリケーションと外部のデータソース・ツール間の通信や操作を標準化された手順で行い、A2Aは異なるベンダーやフレームワークで開発されたAIエージェント間のセキュアな協調を実現するオープン標準プロトコルです。AIエージェントがさまざまな外部ツールやデータベースと安全かつ効率的に連携するための「共通言語」として機能し、複雑な情報収集や分析を自動化し、多様なユーザーニーズに柔軟に対応できるようになります(図2)。

他にもACP(Agent Communication Protocol)、SLIM(Secure Low-latency Interactive Messaging)などが提案されています。これらは、AIエージェント同士や外部ツールとの安全な連携、リアルタイム通信、認証・権限管理などを実現するための基盤となります。2026年以降、こうした標準プロトコルの整備が、AIエージェントの社会実装や業務活用の拡大に不可欠となっていくでしょう。

図2:マルチエージェント構成例

図2 マルチエージェント構成例

論点7:脚光を浴びる「ネオクラウド」とは何か

生成AI時代のインフラとして話題になっているのがAIやGPUワークロードに特化した「ネオクラウド」です。最新GPUやAIアクセラレータを大量導入し、電力密度や冷却設計、ネットワーク接続などのAI用途特有の要件に対応しています。利用企業は、必要な時に高性能GPUインスタンスを借りる「GPU as a Service(GPUaaS)」モデルにより、自社構築コストや固定資産投資を抑えることができます。

主要プレーヤーとしてCoreWeaveやNebius Group、IRENなどが挙げられ、OpenAIやMeta、Microsoftなどとの巨額契約を背景に、AI専用データセンター網を急拡大しています。大手クラウド事業者自身が利用するネオクラウドは、LLMの学習や推論に最適化された次世代インフラを強みとしています。従来クラウドに比べてコスト効率やGPU確保の容易さで優位性を持つ一方、地域冗長性は限定的で、設備拡張・供給確保・運営最適化などのリスクも抱えています。

AIワークロードの爆発的な拡大に伴い、インフラの選択肢や運用戦略も大きく変化しています。2026年以降、成長機会とリスクコントロールの両立が、企業の競争力を左右する重要なポイントとなるでしょう。


サマリー

生成AIとAIエージェントの進化が、ビジネス、社会、テクノロジーの各分野に新たな変革と課題をもたらしています。業界構造や人材戦略、環境コスト、マルチエージェント時代に適したAIモデルやインフラへの対応が今後の重要なテーマです。



関連書籍

AIエージェント

AIが「指示を待たずに動く」時代が始まりました。AIエージェントと共に働く社会で、私たちに問われているのは、命令ではなく、”問いを立てる力”。仕事とキャリアを再定義し、思考と行動を進化させる一冊です。


    関連記事

    AIエージェントを活用し成果につなげるためのスキル変革とはー「次世代の企業変革を導くAIエージェント~Strategy×People×Technologyの視点から~」セミナーレポート

    急速に進化するAIエージェントの台頭が、経営戦略から人材マネジメント、意思決定プロセスまで大きく変えようとしています。企業のデジタル変革が一段と加速する中で、どのような視点でAIと向き合うべきか、EYのプロフェッショナルが多角的に議論しました。


      この記事について