AIガバナンス体制構築に必要な法的視点と実務対応のポイント

AIガバナンス体制構築に必要な法的視点と実務対応のポイント


AIのビジネスへの導入が不可欠となっている今、そのリスクを適切に管理するAIガバナンスの重要性が高まっています。


共同執筆者

EY弁護士法人 瀬川 駿

 ※所属・役職は記事公開当時のものです。



要点

  • AIの利活用はビジネスにおいても不可欠になってきているが、AIの安全性、信頼性に関する社会の懸念も大きくなっている。
  • AIガバナンス体制の構築には特有の難しさがあり、適正な体制を構築できていない企業が少なくない。
  • AIに関する規制やリスクの現状を正しく理解し、AIの有効活用及びリスクマネジメントの両面から、適正なガバナンス体制を構築することが重要である。


AIガバナンスの体制構築の重要性

AIの利活用は、もはや各企業において効率的な業務遂行のためには必須の事項になってきています。他方、AIの安全性、信頼性に関する社会(顧客、消費者を含む)の懸念は大きくなっているにもかかわらず、AIガバナンス体制を構築することには特有の難しさがあるため、適正なAIガバナンス体制を構築できていない企業が数多く見受けられます。

そこで、AIの利活用に関する規制やリスクの現状を正しく理解し、AIの有効活用及びリスクマネジメント両面の観点から、適正なガバナンス体制を構築することが重要な課題となっています。

そもそも、AIガバナンス体制を構築するということは、AIの利活用によって生じるリスクを適切にマネジメントするとともに、その便益を最大化することを目的とする、技術的・組織的・社会的システムを設計することを意味します。

リスクマネジメントの観点としては、法令違反・契約違反・その他の民事上又は刑事上の責任(損害賠償、著作権侵害の責任等)を内容とする法的リスクや、AI搭載製品の誤作動による責任の所在に関するリスク、取引先とのトラブル、インシデントの発生に伴う社会的信頼の低下等の事業リスクを、適切にマネジメントすることが重要となります。他方、AIの利活用に伴うプラスの側面に目を向け、リスクを正しく認識した上での活用方法を検討し、これを促進することで、AIの利活用によって生じる便益を最大化することももちろん重要になります。

前述の通り、AIガバナンス体制の構築には特有の困難さが存在します。それは、1つ目として、AIの利活用に当たっては、事業部門のみならず、管理部門の関心も高く、法務だけでなく、情報システム、知的財産、品質管理等の業務と関連するため、担当責任部署が多岐にわたるということ。2つ目として、AIに関する規制や技術変化が迅速であるため、ガバナンス体制を繰り返しアップデートする必要があること。そして3つ目として、現場レベルのみならず、経営層の意識改革を図る必要があることの3点が主な課題となります。このような困難さを乗り越え、適切なAIガバナンス体制を構築してリスクマネジメントを図るとともに、AIの利活用に伴うメリットを最大限享受することが、今後重要になってくると言えます。

AI規制の現状

日本におけるAI規制

適切なAIガバナンス体制を構築するためには、AIに関する規制の現状を適切に理解することが重要となります。日本においては、AIの利活用一般に関して特定の義務や要件を課す包括的な規制はいまだなく、ソフトロー・アプローチ(法的拘束力のある規制を行わないこと)によっています。したがって、各社の状況に応じた判断・取り組みが要請されることになります。

 

もっとも、ソフトロー・アプローチであるからといって無関心でいてよいかというと、そうではありません。例えば、AI規制に関する法令等が、当該企業が所属する業界の標準となった場合、その法令等に適合していないことで、顧客や消費者からの信用を失いかねないという、潜在的なレピュテーションリスクが存在します。また、AI規制に関する法令等として、「人工知能関連技術の研究開発及び活用の推進に関する法律(AI推進法)」、「AI事業者ガイドライン」(経済産業省)、等が挙げられます。このうち、AI推進法は、2025年5月28日に成立し、同年6月4日に交付されたものであり、従前のソフトロー・アプローチを大幅に変更するものではありませんが、企業には国の施策への協力義務が課せられる(同法第7条)ほか、今後一定の情報提供義務等が課される可能性があります。以上のような潜在的なリスクや、法令改正に伴い企業に課される義務等に適切に対応できるようにするために、AI規制に関する法令等について、情報を常にアップデートすることが重要となります。

また、学習データへの利用やプロンプト入力等のAIの利活用に伴う、関連既存法令の順守にも目を向ける必要があります。例えば、生成AIに関して一般的に問題となることが多い法令として、個人情報保護法や著作権法等が挙げられます。

個人情報保護法との関係では、学習データへの利用について、「要配慮個人情報」(人種、信条、病歴や犯歴等、個人情報保護法が特に配慮が必要な情報として定めている情報[個人情報保護法2条3項])の不正取得に該当しないか、個人情報の利用目的の範囲内か、個人データ(名簿など、容易に検索可能な体系にまとめられた個人情報[個人情報保護法16条1項、3項])を学習データから排除することができるか等に注意する必要があります。また、プロンプト入力について、個人情報の利用目的の範囲内か、個人データのAI事業者への違法な提供に該当しないか、個人データをプロンプトから排除することができるか等に注意する必要があります。個人データのAI事業者への違法な提供の該当性について、個人情報保護委員会は、「個人データを含むプロンプトを入力する場合には、それが機械学習に利用される場合、AI事業者への個人データの提供に当たる」とみなしている(個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」、www.ppc.go.jp/files/pdf/230602_kouhou_houdou.pdf)ことに留意が必要です。

著作権法との関係では、まず、著作物は「自ら享受し又は他人に享受させることを目的としない場合」(著作権法第30条の4)や「軽微利用」(著作権法第47条の5)といった例外事由に該当しない限り、権利者の許諾なく利用することはできないと規定されています。この点、AIの利活用においては、かかる例外事由に該当することが多いとは考えられるものの、例外事由に該当しない悪質な利用を防ぐための仕組み作りをすることも、検討の余地があります。そして、著作物の学習データへの利用について、著作権侵害(著作権法で認められない無断利用)に該当しないか、著作物を学習データから排除することができるか等に注意する必要があります。また、プロンプト入力や、AIの利活用によって得られたコンテンツを利用することについて、第三者の著作権の侵害に該当しないか、そもそもAIにより生成されたコンテンツが、著作物として著作権の保護を受けられるか等に注意する必要があります。著作物の該当性につき、文化庁によれば、AIによる成果物に著作権が認められるには、人による「創作」であることが必要であることから、AIによる出力後に加筆や修正を加えるなどの措置を確保しておくことが望ましい、とされています(2024年3月文化庁「AIと著作権に関する考え方について」、www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdfもご参照ください)。

さらに、個別の事業分野において問題となり得る関連法令として、情報流通プラットフォーム対処法(インターネット上の違法・有害情報)、金融商品取引法(法人関係所法、ファイアウォール規制)、道路運送車両法(自動運転)、薬機法(医療機器)、弁護士法等の各種ライセンス規制、等があります。AIを利活用する際には、これらの関連法令との抵触の有無についても、十分に配慮する必要があります。

海外におけるAI規制

海外のAI規制は、方向性が国ごとに大きく異なり、企業にとって複雑な対応が求められる状況となっています。前述の日本と同様、ソフトロー・アプローチによるところもある一方で、例えばEUのAI規制(EU AI Act)では、ハードロー・アプローチ(AIについて包括的かつ法的拘束力のある規制を行い、ソフトローは補完的)による、世界で最も厳格なAI規制法となっています。EU AI Actは、AIを利活用するEU域内の親会社・子会社のみならず、EU域内にAI製品やAIサービスを提供する場合、又は、AIシステムで生成されるアウトプットがEU域内で利用されることが想定される場合にも、適用される可能性があります。そのため、EU域内におけるビジネスを検討している企業や、EU域内におけるサービスの提供を検討している企業の場合には、この点を十分注意することが必要です。また、違反した際の制裁金も相当高額になっている(禁止されるAIシステム違反の場合には、3,500万ユーロ又は世界年間売上高7%のうち高い金額を上限とする制裁金が科され、その他の主な義務違反の場合には、1,500万ユーロ又は世界年間売上高3%のうち高い金額を上限とする制裁金が科されることになります)ため、この点にも十分に注意する必要があります。


お問い合わせ

より詳しい情報をご希望の方はご連絡ください。


海外のAI規制は、方向性が国ごとに大きく異なり、企業にとって複雑な対応が求められる状況となっています。前述の日本と同様、ソフトロー・アプローチによるところもある一方で、例えばEUのAI規制(EU AI Act)では、ハードロー・アプローチ(AIについて包括的かつ法的拘束力のある規制を行い、ソフトローは補完的)による、世界で最も厳格なAI規制法となっています。EU AI Actは、AIを利活用するEU域内の親会社・子会社のみならず、EU域内にAI製品やAIサービスを提供する場合、又は、AIシステムで生成されるアウトプットがEU域内で利用されることが想定される場合にも、適用される可能性があります。そのため、EU域内におけるビジネスを検討している企業や、EU域内におけるサービスの提供を検討している企業の場合には、この点を十分注意することが必要です。また、違反した際の制裁金も相当高額になっている(禁止されるAIシステム違反の場合には、3,500万ユーロ又は世界年間売上高7%のうち高い金額を上限とする制裁金が科され、その他の主な義務違反の場合には、1,500万ユーロ又は世界年間売上高3%のうち高い金額を上限とする制裁金が科されることになります)ため、この点にも十分に注意する必要があります。

AIガバナンス体制構築のポイント

上記のAIガバナンス体制構築の重要性やAIに関する規制の動向に照らし、以下のポイントを踏まえた、適切なAIガバナンス体制の構築を図ることが望ましいと考えられます。

1. AIライフサイクルとステークホルダーについての理解

AIライフサイクルには、開発段階、提供段階、利用段階の各ステージが存在します。そして、その各ステージにおいて想定されるステークホルダーが、データエンジニアやデータ提供者・権利者等の「開発者」、ソフトウェアプラットフォーム提供者等の「提供者」、生成物のエンドユーザー等の「利用者」と異なるため、AIガバナンス体制もおのおのに応じて作成する必要があります。そのため、まずは、自社が「開発者」、「提供者」、「利用者」のどの位置にいるのかを確認した上で、AIライフサイクルの各ステージで生じ得るリスクを整理し、各ステージにおいて想定されるステークホルダーとの間における責任分担について適切な整理をした上で、AIガバナンス体制を構築することが重要になります。

2. アジャイル・ガバナンスの実践

AIに関する環境、技術、市場の変化に応じて、柔軟にAIガバナンス体制の見直しを実施することが必要になります。その際には、①AIの利活用により達成したいこと(ゴール)の設定と、そこに至るための環境やリスクの分析を行うこと、②責任部署の明確化を図り、会社方針や社内ルール・システムを策定すること、③社内教育を実践すること、④①から③をモニタリングないし評価することにより、継続的な改善を図ること、が必要になります。以下、各項目についてポイントをご説明します。

① AIライフサイクルの各フェーズにおいて生じ得るリスクを特定し、整理することが必要になります。その上で、洗い出されたリスクへの対応策を検討し、それらに対する機能状況を評価するシートのひな形を作成するとより効果的と言えます。

② 責任部署の明確化については、具体的な運用や実務的な判断は既存の個別部署に委ね、AIガバナンスの方針やモニタリングに関して包括的に所管する部署(「AI倫理委員会」等)を設置することが考えられます。会社方針や社内ルール・システムについては、OECD原則やAI事業者ガイドラインの原則を参照した上で、会社全体の基本原則として、AI倫理指針、AI活用指針等を策定することや、AIガバナンスを意識した社内ガイドラインを策定することも有益であり、かかる会社方針やガイドラインを、ユーザーやステークホルダーに公開することも積極的に検討されるべきです。会社方針やガイドラインの策定に当たっては、既存の関連規程(個人情報取扱規程、秘密情報管理規程、品質管理規程等)との関係も明確にしておくことが望ましく、また、ユーザーが内容を理解し、イメージできるようなものにすることや、一読了解できる内容とし、できる限りユーザーに解釈を求めないものとすることがリスク回避の観点から重要となります。

③ 社内ルールを周知徹底させ、社員の理解を深めること、AIリテラシーを確保すること、規制の動向や最新の技術・脅威を意識した継続的な研修内容のアップデートを図ることが、重要となります。

④ モニタリングについては、①において策定した評価シートの継続的な活用、及び、状況の変化に応じた更新が重要となります。評価については、少なくとも1年に1回(可能であれば四半期に1回)程度の監査が望ましく、客観性や効率性の確保のために、外部ツールや専門家を活用することも検討の余地があります。改善については、ガバナンス体制が機能していない場合にはルールの更新や対応例の追加を検討すること、新しいリスクが検出される等の場合には、必要に応じて評価シートのひな形を更新することも検討されるべきです。

3. グローバル企業の場合

グローバルに活動している企業の場合、海外子会社に適用される法令の違いや、関連部署が複雑であること等の要因から、上記に加えて追加の配慮が必要になることがあります。例えば、1では、現地のAI規制法、個人情報保護法、著作権法等に応じ、リスクを再整理することが必要になる場合があり、2では、日本の本社で管理すべき範囲の検討や、海外子会社において、現地における地域レベルの担当部署や管理委員会設置に対する有無等の検討が必要になることもあります。このように、国内のみで活動している企業とは異なる点に留意する必要があります。

4. 経営層の関与

以上のような現場レベルでの日常の管理とともに、経営層レベルによるマネジメントも必要になります。経営層としては、1ないし3の各項目について、会社としての意思表明を行うことに加え、取締役会に対して責任を負う専門組織(AI倫理委員会等)の設置の有無、取締役会への報告体制の整備、会社としてのゴールからの乖離(かいり)の有無、等を詳細に検討し、積極的に実行に移すことが望まれます。



お問い合わせ
より詳しい情報をご希望の方はご連絡ください。


サマリー 

以上のようなAIガバナンス体制の構築の重要性や法律等によるAIに対する規制を正確に理解し、ポイントを押さえたAIガバナンス体制を構築することで、ユーザーやステークホルダーからの信頼が厚く、かつ、変化の激しいAI情勢に柔軟に対応できる企業体制を構築することができると考えられます。

EY弁護士法人では、AIガバナンス体制の評価、構築支援等についてもご支援させていただいておりますので、お気軽にご相談ください。



この記事について