AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)の検討
地域:日本
業務分野:著作権法、知財一般
カテゴリー:法令、その他
AI時代の知的財産権検討会(第10回)が令和7年12月12日(金)に開かれ、その資料2として、「AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)」が添付されている。
出典:首相官邸ホームページ
検討会のURL:
https://www.kantei.go.jp/jp/singi/titeki2/ai_kentoukai/gijisidai/dai10/index.html
PDFのURL:
https://www.kantei.go.jp/jp/singi/titeki2/ai_kentoukai/gijisidai/dai10/shiryo2.pdf
強制力のないプリンシプル・コードであっても、広範なAI開発事業者、AI利用事業者及びその経営者、法務部、知的財産部、AIに関係する部署等に多大なる影響を与えうる。一方で、AI時代の知的財産権をどのように守っていくのかの視点も重要となる。AI開発事業者、AI利用事業者、AIの利用者、知的財産権の権利者など、すべての者が満足のいく解決が何かを検討してく必要がある。
このような観点から、上記「AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)」(以下「プリンシプル・コード案」)について暫定的なコメントをする。
1.プリンシプル・コード案1頁15行目~2頁3行目について
プリンシプル・コード案
(2)この文書の適用を受ける対象
この文書は、「AI開発者」及び 「AI提供者」(以下これらを総称して「AI事業者」という。)に適用されるものとする。
○ 「AI開発者」とは、AIモデル・アルゴリズムの開発、データ収集(購入を含む )、前処理、AI モデル学習及び検証を通してAIモデル、AIモデルのシステム基盤、入出力機能等を含むAIシステム( 以下これらを総称して「AIシステム」という。)を構築する役割を担う者(なお、その目的、法人・個人の別を問わない。)であって、当該開発に係るAIシステムの全部又は一部を公衆(不特定の者又は特定多数の者をいう。以下同じ。)に提供した者をいう。
○ 「AI提供者」とは、AIシステム検証、AIシステムの他システムとの連携の実装、AIシステム・サービスの提供、正常稼働のためのAIシステムにおける利用者側の運用サポート又はAIサービスの運用を担う者(なお、その目的、法人・個人の別を問わない。)であって、AIシステムをアプリケーション、製品、既存のシステム、ビジネスプロセス等に組み込んだサービス ( 以下これらを総称して「AIサービス」という。)を公衆に提供した者をいう。
明確化を期すため付言すれば、一の法人又は個人が保有するデータを用いて、その者のみが使用するAIシステムを提供する者は、この文書の「AI開発者」には含まれない。また、一の法人又は個人が保有するデータを用いて特化させたAIシステムを搭載したAIサービスを、その者のみに提供する者はこの文書の「AI提供者」には含まれない。
なお、日本国内に本店又は主たる事務所を有しないAI事業者であっても、AIシステムやAIサービスが日本に向けて提供されている場合(日本国民が利用できる場合を含むがこれに限られない。)には、この文書の適用を受けるものとする。
上記記載へのコメント:
「AI開発者」及び 「AI提供者」の定義が示されている。定義は広範であり、多くの日本企業、外国企業が対象に含まれうる。
まず、「AI開発者」は、「AIシステム」を構築して、AIシステムの全部又は一部を公衆に提供する者を広く含んでいる。たとえば、システムを開発してWeb上で提供しているAI研究者など、企業だけでなく、個人まで対象になりうる。知的財産権のためとはいえ、萎縮効果が懸念されるであろう。
また、「AI提供者」は、AIを用いたサービス等を提供する多くの企業や個人が対象になりうる。小規模な企業や個人は、AIを使って公衆にサービスを提供すると、面倒なプリンシプル・コード案への対応が必要になる。善意のサービス提供者もサービスの提供を諦め、日本のAIの開発が阻害されるおそれがある。
また、「明確化を期すため付言すれば」とあるが、自己保有データを用いて自己使用のみをする場合等を除外するだけで、適用範囲は必ずしも明確ではない。
さらに、外国のAI事業者についても、AIシステムやAIサービスが日本に向けて提供されている場合、面倒なプリンシプル・コード案への煩雑な対応が必要になるので、日本をサービス提供国から外すおそれもある。そうすると、日本国民全体にも大きな悪影響があることになる。
AIの時代の知的財産権の保護は重要であるが、萎縮効果によりAIの利活用が妨げられる結果とならないように、十分な検討が必要であろう。この点で、プリンシプル・コード案は再考を要するものと思われる。
なお、AIの利活用については、知的財産推進計画2025の21頁1~2行目で、「日本企業のAIの利活用率を概ね100%まで高める」ことをKPIとしており、ほぼすべての日本企業がAIを利活用することを目標としている。このような目標と、プリンシプル・コード案の萎縮効果との関係についても、十分な検討が必要となろう。
2.プリンシプル・コード案2頁5行目~18行目について
プリンシプル・コード案
(3)この文書が採用する手法
この文書は、AI事業者、AI利用者及び権利者が置かれた状況やそれぞれの意向等も踏まえて制定されたものであり、AI事業者に対して、AI事業者に帰属する情報(なお、営業秘密を含むがこれに限られない。)の強制的な開示を求めるものではなく、以下に示す原則についてコンプライ・オア・エクスプレインの手法により対応を求めるものである。
「コンプライ・オア・エクスプレイン」の手法とは、原則を実施するか、実施しない場合には、その理由を説明するよう求める手法である。すなわち、以下に示す原則の中に、自らの個別事情に照らして実施することが適切でないと考える原則があれば、それを「実施しない理由」を十分に説明することにより、一部の原則を実施しないことも想定している。ただし、当然のことながら、AI事業者は、当該説明を行う際には、実施しない原則に係る自らの対応について、利用者や権利者の理解が十分に得られるよう工夫すべきである。
なお、原則を実施しつつ、併せて自らの具体的な取組みについて積極的に説明を行うことも、利用者や権利者から十分な理解を得る観点からは有益であると考えられる。
上記記載へのコメント:
「コンプライ・オア・エクスプレイン」の手法について説明されている。この手法であっても、中小企業や個人への萎縮効果が大きいと思われる。中小企業や個人が、自らの個別事情に照らして実施することが適切でないと考える原則があれば、それを「実施しない理由」を十分に説明するためには、多くの検討時間が必要となる。当該説明を行う際に、実施しない原則に係る自らの対応について利用者や権利者の理解が十分に得られるよう工夫しなければならないとすると、大変な労力が必要となり、善意のサービス提供者であっても、AIサービス自体の提供を断念することになりうる。
「コンプライ・オア・エクスプレイン」の手法であっても、十分な説明義務が重い負担としてのしかかる。説明義務違反が、法的な責任追及がなされる理由の一つとなるリスクもあり、AIサービス自体の提供をやめる個人や中小企業が出てきてしまうだろう。
また、プリンシプル・コード案への対応を組織的に検討できる法務部、知財部、AI技術部門等の専門部署を有する大企業であっても、知的財産権の権利者が十分に納得する説明を準備するには、法務部、知財部、AIの技術部署等の総力を結集しても容易ではないであろう。
プリンシプル・コード案の原則を、あまり説得的でない理由で守らない事業者には社会的な非難が集まりうる。また、受け入れる場合、虚偽表示や営業秘密の漏えいなどの法的な問題が生じると、経営陣や関係部署の責任者などが株主代表訴訟や訴訟等にさらされるリスクがありうる。大企業であっても、「コンプライ・オア・エクスプレイン」への適切な対応は命がけのものとなり、そのようなリスクを冒すぐらいなら、AIサービス自体の提供を止めてしまうのが最も安全であるという判断にもなりかねない。
3.プリンシプル・コード案2頁20行目~27行目について
プリンシプル・コード案
(4)この文書の受入れ状況の可視化
この文書の受入れ状況を可視化するため、以下に示す原則を受け入れるAI事業者に対して、次の事項を期待する。
● 自らの管理及び運用するコーポレートサイト(AI事業者の概要、事業内容、製品情報等の公式情報を発信するウェブサイトをいう。)その他これと同等の機能を有するウェブサイト(以下、これらを総称して 「コーポレートサイト等」という。)で次の事項を公表するとともに、内閣府知的財産戦略推進事務局所定の参考様式に基づきこれを届け出ること。
(※以下略)
上記記載へのコメント:
この文書の受け入れ状況の可視化が定められている。文書を受け入れてしまえば法的責任が生じるし、コーポレートサイトに記載がなければ信用を失うという前門の虎、後門の狼の状況にAI事業者を追い込むことになる。また、中小企業や個人はコーポレートサイト等を持っていないところも多い。重い負担を課されるくらいであれば、AIのサービスを公衆に提供するのをやめてしまおうという萎縮効果が高いと思われる。
参考様式に基づいて届け出るのも、中小企業や個人には負担が重いであろう。善意でAIのサービスを公衆に提供する者も、重い負担を考えると、AIのサービス提供自体をやめてしまうのが最もリスクが少ないという判断になりかねない。
大企業は、法務部、知財部、AIの技術部門等が知恵を結集して、コーポレートサイトの記載内容や参考様式に基づいた届出の文面を適切に作ることが可能かもしれない。しかし、文面についての慎重な検討が極めて重要になるであろう。大企業であっても、適切な対応をするには多大な労力とコストを要するだけでなく、誤った開示、法令違反の開示等による法的責任の問題も重くのしかかる。
このような負担にすべての中小企業や個人が耐えられるとは思われない。
4.プリンシプル・コード案4頁1行目~2行目について
プリンシプル・コード案
2.この文書が示す原則及び例外
(1)この文書が示す原則
上記記載へのコメント:
原則として、極めて多くの開示事項が定められており、中小企業や個人が対応するのは負担が大きいと思われる。大企業であっても、既に締結している莫大な契約との整合性や営業秘密等との関係もあり、どこまで開示するのかについては、法務部、知財部、AI技術部門等による専門的で慎重な判断が求められることになる。外国企業は、日本の法律事務所等に相談しないと、日本語で適切な対応をするのは困難であろう。外国の企業の場合、日本のためにこのような煩雑な処理をすることに負担を感じ、日本をサービス対象国から外す可能性もあると思われる。
5.プリンシプル・コード案6頁1行目~16行目について
プリンシプル・コード案
(以下枠囲み)
【原則2】
自らの権利又は法律上保護される利益の実現のために訴訟提起、調停申立て、ADR(裁判外紛争解決手続)その他の法的手続を現に行い又は法的手続の準備をしている者(なお、その者から委任を受けた弁護士及び法令により裁判上の行為をすることができる代理人を含む。)から、開示対象事項(「(1)透明性確保のための措置 ア 使用モデル関係」記載の事項を除く。)について詳細の開示の求めがあった場合において、当該要求が次の事項を満たすときは、AI事業者は、当該要求に係る開示対象事項の詳細及び要求に対するAI事業者としての意見を開示する。
① 「自らの権利又は法律上保護される利益の実現のために訴訟提起、調停申立て、ADR(裁判外紛争解決手続)その他の法的手続を現に行い又は法的手続の準備をしている者」に該当することを示す理由が示されていること
② 開示に係る事項及び意見の利用目的が明示されており、かつ、開示を求める者が当該目的以外で利用しない旨を誓約していること
③ URL等のAI事業者において容易にアクセス及び確認可能な情報を示しており、かつ、当該情報との関係でAI事業者に対して開示を求める事項が特定されていること
④ AI事業者に対して求める意見が特定されていること
上記記載へのコメント:
いよいよ生成AIと著作権の問題が深刻になり、AI事業者への情報開示の請求等が定められてきている。中小企業や個人がこのような請求に応じるのは大変な負担であり、萎縮効果が大きい。
このような取扱いが必要になる理由は、文化審議会著作権分科会法制度小委員会「AIと著作権に関する考え方について」(令和6年3月15日)(https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdf)(以下「考え方」という。)によると思われる。
「考え方」34頁9~13行目は、「AI利用者が既存の著作物(その表現内容)を認識していなかったが、当該生成AIの開発・学習段階で当該著作物を学習していた場合については、客観的に当該著作物へのアクセスがあったと認められることから、当該生成AIを利用し、当該著作物に類似した生成物が生成された場合は、通常、依拠性があったと推認され、AI利用者による著作権侵害になりうると考えられる。」と記載する。
この「考え方」は、その表紙に記載のとおり法的拘束力はなく、実際の裁判での判断が「考え方」のとおりになるとは限らない。しかし、この「考え方」によれば、著作権者が既存著作物に類似する出力について、既存著作物が学習データに入っているか否かの照会をしても、AI事業者が対応しないと、AI利用者が、依拠性について反論ができないために、著作権者が著作権侵害を主張するリスクがある。また、「考え方」34頁23~26行目は、「なお、生成AIの開発・学習段階で既存の著作物を学習していた場合において、AI利用者が著作権侵害を問われた場合、後掲(2)キのとおり、当該生成AIを開発した事業者においても、著作権侵害の規範的な主体として責任を負う場合があることについては留意が必要である。」としており、AI事業者も責任を負いうる。
そうすると、AI事業者としては、学習したデータセットに既存著作物が入っているか否かを調査して、照会に応じないと納得が得られないことになる。これは非常に重い負担となる。また、追加学習の場合や合成データを使った場合など様々な場合があり、学習したデータセットを全部管理しているとも限らず、秘密保持義務など法的な義務がかかっていることもあり、照会に応じることが可能とも限らない。
このような事態が生ずるのは、現在は著作権的にクリーンな超巨大データベースがないので、多くの生成AIが、インターネットをクロールしたデータなど、著作権的にクリーンでないデータで学習しているからである。データインカムの制度を導入して、著作権的にクリーンな超巨大データベースを作り、万が一著作権的にクリーンでないデータが混入しても除去し、当該データベースを用いた場合には法律を制定して免責と保険等による補償の制度を設け、出力が著作権侵害にならないことが保証される生成AIを作らないといけない。
なぜなら、今後はAIエージェントなど自律AIの時代になるからである。たとえば、自律AIが、営業を行ったり、法務、総務、経理、採用、教育などあらゆる業務を支援できるようになる。そうすると、AIエージェントが仮に1億台導入され、たとえば営業の過程で、AIセールスマンが、資料を作成したり、会話をするなど1日に1万回の出力をし、仮に1万回に1回という低確率で既存著作物と類似の出力が偶然なされる場合、日本全体で年間365億回という単位で、既存著作物と類似の出力がなされうる。
人間のセールスマンの場合、世間にあまり知られていない著作物と偶然に類似しても、依拠性がないことを容易に示せる。しかし、生成AIの場合、仮に学習データに既存著作物が入っているだけで依拠性が原則として認められるという「考え方」に立てば(この考え方が自律AIの時代に整合的とは思われないが)、AIエージェントの動作のたびに著作権侵害のおそれがあることになる。このような社会では、AIエージェントが動作して疑わしい出力があるたびに、AI事業者に問い合わせることになる。AI事業者も、プリンシプル・コード案のような複雑な開示と、AIエージェントが既存著作物と類似の出力を偶然するたびに、著作権者からの莫大な開示請求に対する多大なる対応の負担が必要となる。これでは、自律AIの社会は到底成り立ち得ない。
このような事態を防ぐために、著作権的にクリーンな超巨大データベースを作成する必要がある。著作権的にクリーンなデータベースを学習に使った生成AIの出力は著作権侵害にならないことを、法制度を作って保証しなければ、高度なAIの時代が進むと、著作権問題への導入萎縮効果だけで、GDPの大半を失うことになりうる。
このようなAI技術ついての考察により、データインカムの制度の導入が、自律AIの時代に不可欠であることがわかるであろう。
現状では、データインカムの制度が導入されていないので、複雑な情報開示や、学習のデータセットに既存著作物が入っているか否かの莫大な照会等に、AI事業者が応じる重い負担が生じてしまうのである。データインカムの制度の導入が急務といえる。
なお、「考え方」34頁14行目~22行目は、生成AIにおいて、学習に用いられた著作物の創作的表現が、生成・利用段階において出力される状態となっていないと法的に評価できる場合には、AI利用者において当該評価を基礎づける事情を主張することにより、当該生成AIの開発・学習段階で既存の著作物を学習していた場合であっても、依拠性がないと判断される場合はあり得るとする。しかし、この判断基準は明確でない。そもそも、AI利用者は生成AIの内部の仕組みを知らないため、AI利用者において「当該評価を基礎づける事情」を主張することは通常は困難である。訴訟においては、「当該評価を基礎づける事情」は、証拠等に裏付けられていなければならない。そうすると、訴訟において、AI事業者が訴訟に参加するか、技術的証拠の提出や技術的主張の支援をして、裁判所の法的評価を得るなど、煩雑な手続が必要になりうる。
このような事態を避けるためには、公的機関が著作権侵害判定AIを作って、当該AIで安全とされた出力を免責する法制度を作ることが考えられる(コンプライアンスアーキテクチャー)。誤認識率を下げるためには、著作権判例では全くデータ量が足りず、莫大な専門家のデータが必要になり、データインカムの制度が必要となる。また、裁判所の判断自体にばらつきがあるので、裁判官の判断と当該AIの判断のずれが生じ、完全なものは原理的に作れない。よって、誤認識率が極めて低い著作権侵害判定AIの判断に従った場合、免責する法制度が必要になる。
このように、現在の生成AIと著作権の考え方は、自律AIの時代に適応できるものになっていないと思われる。
生成AIと著作権の問題を終局的に解決するには、データインカムの制度により、著作権的にクリーンな超巨大データベースを作成することが急務となっている。これは、著作権者の利益も、AI事業者・AI利用者の利益も、双方ともに最も守るものである。また、国民もデータインカムを受け取れ、誰も損をしない制度である。著作権だけでなく、各種の法律の審査をすることで、法的にクリーンな超巨大データベースを作成できる。また、社会規範のデータを収集することは、自律AIの違法行為を防止するためにも不可欠となる。
そして、AI事業者の開示としても、「法律で定められた法的にクリーンなデータベースで学習を行っていますので、当該AIは法律の定めにより出力の法的適合性が保証されています」という記載をするだけで開示として十分となり、プリンシプル・コード案のような複雑な開示は一切必要なくなるのである。
もっとも、上記は通常のAIの場合であり、汎用人工知能(AGI)など極めて高度なAIについては、AGIの認証と権利の問題を考えることが必要となると思われる。
また、自律AIが環境中で学習する場合は、環境中での学習データには著作物が含まれるため、そのデータは分けて管理し、生成出力には使わないか、コンプライアンスアーキテクチャーを併用することが考えられる。自律AIが環境中で学習する場合の点も、プリンシプル・コード案での取扱いが定められておらず、自律AIの時代に対応できるものではないと思われる。
6.プリンシプル・コード案6頁1行目~16行目について
プリンシプル・コード案
(以下枠囲み)
【原則3】
AI事業者の提供するAIシステム又はAIサービスを用いて映画、音楽、演劇、文芸、写真、漫画、アニメーション、コンピュータゲームその他の文字、図形、色彩、音声、動作若しくは映像若しくはこれらを組み合わせたもの又はこれらに係る情報を電子計算機を介して提供するためのプログラム(電子計算機に対する指令であって、一の結果を得ることができるように組み合わせたものをいう。)を生成した者から、以下の①ないし④記載の事項を示した上で、以下の④記載のURLのドメインがAI事業者の提供するAIシステム又はAIサービスの学習対象に含まれているか否かに関する開示の求めがあった場合には、AI事業者は、当該要求に係る事項の詳細及び要求に対するAI事業者としての意見を開示する。
① 開示を求める者の生成に係る当該生成物
② 当該生成物を生成する際に用いたプロンプト
③ 当該生成物の利用目的
④ 当該生成物と同一又は類似するコンテンツ(コンテンツの創造、保護及び活用の促進に関する法律第2条1項に定める「コンテンツ」をいう。)が掲載されたURL
上記記載へのコメント:
いよいよ生成AIと著作権の問題が深刻になり、AI事業者への開示請求が定められてきている。中小企業や個人がこのような請求に応じるのは大変であり、萎縮効果が大きい。このような義務をAI事業者に課す場合、大企業であっても大変な負担となり、外国企業の場合にも日本市場からの撤退を考えることになりかねない。
生成AIの出力が既存著作物に類似している場合、AI事業者が詳細な情報を提供しないと著作権侵害の有無が判断できないのであれば、自律AIの時代のAI社会は成り立たない。
データインカムの制度で、著作権的にクリーンな超巨大データベースを作成すれば、このような煩雑な手続は必要がない。著作権的にクリーンな超巨大データベースは、国が権利を持つと国家権力の濫用のおそれがあるので、国民がデータに関する知的財産権を分散して持つ方が民主的である。データインカムの制度は、国民がデータに関する権利を分散して持つ方式である。
著作権者も、データインカムの制度を利用できる。著作権者は利用しないことを選択でき、この場合、超巨大データベースに自己の著作物は入らず、自己の著作物を生成AIに学習させないことができる(Opt-In方式)。著作権者にとっても、自己の著作物をAIに学習させるか否かを選択でき、現在の状況よりも利益が守られる理想の制度なのである。
7.まとめ
以上、プリンシプル・コード案の記載の一部について、暫定的なコメントをした。
現在の生成AIと著作権の「考え方」に基づいて、プリンシプル・コード案がエンフォースされれば、日本の未来にとって大きなマイナスとなるであろう。自律AIの時代に対応できる新たな法制度として、データインカムの制度を検討することが必要である。
自律AIの時代に適応するには、著作権的にクリーンな超巨大データベースを作成し、AIの出力が安全になるように法的な手当てが必要である。そのような手当てがなされれば、AI事業者は、「法律で定められた法的にクリーンなデータベースで学習を行っていますので、当該AIは法律の定めにより出力の法的適合性が保証されています」という簡単な記載をすればよくなるのである。
また、データインカムで集められた超巨大データベースで学習され、コンプライアンスアーキテクチャーを採用する安全なAIを認証機関により認証することで、法的に安全な「認証AI」の登録制度を作ることもできる。この場合、AI事業者は「本AIは、認証AIです。登録番号は○○番です」と記載するだけでよくなるのである。
「認証AI」の制度により、社会においてAIエージェント等の自律AIを安全に利用できるようになり、生産性が爆発的に向上し、日本の未来が拓けてくるのである。
執筆者
法律部アソシエイト 弁護士
岡本 義則 おかもと よしのり
[業務分野]
不正競争防止法 著作権法 企業法務 国際法務 知財一般 特許 意匠
著作権法、知財一般分野の他の法律情報
お電話でのお問合せ
03-3270-6641(代表)

