文化審議会著作権分科会法制度小委員会(第2回)

日時:令和5年9月5日(火)

16:00~18:00

文部科学省東館3F2特別会議室
(オンライン併用)

議事

1開会

2議事

  • (1)生成AIについての有識者ヒアリング
  • (2)AIと著作権について
  • (3)その他

3閉会

配布資料

資料1
有識者提出資料(岡田弁護士)(986KB)
資料2
有識者提出資料(日本マイクロソフト社)(3.8MB)
資料3
生成AIに関するクリエイターや著作権者等の主な御意見(188KB)
参考資料1
第23期文化審議会著作権分科会法制度小委員会委員名簿(236KB)
参考資料2
AIと著作権に関する論点整理について(第1回法制度小委員会配付資料)(640KB)
参考資料3
AI学習に対する技術的な対応手段の一例について(434KB)

議事内容

【茶園主査】ただいまから文化審議会著作権分科会法制度小委員会(第2回)を開催いたします。

本日は御多忙の中、御出席いただきまして、誠にありがとうございます。

本日は、委員の皆様には会議室とオンラインにてそれぞれ御出席いただいております。

オンラインにて御参加いただいている皆様におかれましては、ビデオをオンにしていただき、御発言されるとき以外はミュートに設定をお願いいたします。

議事に入る前に、本日の会議の公開につきましては、予定されている議事内容を参照いたしますと特段非公開とするには及ばないと思われますので、既に傍聴者の方にはインターネットを通じた生配信によって傍聴していただいているところですけれども、この点、特に御異議ございませんでしょうか。

ありがとうございます。

では、本日の議事は公開ということで、傍聴者の方にはそのまま傍聴いただくことといたします。

それでは、事務局より配付資料の確認をお願いいたします。

【小倉著作権課専門官】事務局でございます。議事次第にあります配付資料一覧を御覧ください。本日は、ヒアリングということで、有識者からの提出資料のほか、資料3に加えまして、参考資料として、前回の法制度小委員会の配付資料、また参考資料3も用意しております。

以上でございます。

【茶園主査】ありがとうございました。

【茶園主査】それでは、議事に入りたいと思います。

本日の議事は、議事次第のとおり、(1)から(3)の3点となります。

早速、議事(1)の生成AIについての有識者ヒアリングに入りたいと思います。

本日は、岡田淳弁護士と日本マイクロソフト社より生成AIについて御発表いただきます。

岡田弁護士は、AI戦略会議の構成員でいらっしゃり、政府のAI対応の全体的な検討状況などについて御発表いただきます。

日本マイクロソフト社には、生成AIの開発事業者ですので、生成AIの技術やサービスの紹介、著作権に関する事柄、そして関係する技術などについて御発表いただきます。

委員の皆様におかれましては、有識者ヒアリングにより御知見を深めていただいた上で、御議論に入っていただきたいと考えております。

それでは初めに、資料1に基づきまして、岡田弁護士より御発表いただきます。

岡田弁護士、どうぞよろしくお願いいたします。

【岡田弁護士】ただいま御紹介にあずかりました弁護士の岡田と申します。本日はどうぞよろしくお願いいたします。

AIと著作権をめぐる論点としては、皆様も御案内のとおり、本当に多岐にわたる様々なレイヤーの議論がありますけれども、本日は20分という限られた時間しかありませんので、個別の解釈論というよりも一歩引いて、AIガバナンスという大きな観点からみて著作権制度をどう考えればいいのかという視点でお話をしたいと思っております。

まず、スライド3頁で今日お話ししたいテーマを大きく整理しておりますので、この総論を説明してから各論に入りたいと思います。

1点目としては、AI時代の著作権の議論にAIガバナンスの視点は欠かせないということで、もちろん著作権法の問題は色々とありますが、著作権法に閉じた議論をするということには限界があるのではないかと思っております。AIリスクの多くは複合的で、著作権法の手当てだけでは根本解決しない問題がたくさんあります。他方で、例えば政府でAIガバナンスの制度設計をする側から見ても、逆に著作権について正しい理解をしておくことは不可欠です。その意味で、著作権とAIガバナンスは相互に緊密に作用し合っていると考えております。

2点目としては、AIガバナンスの観点も踏まえて考えたときに、現行著作権法30条の4による大きな枠組み自体は(細かい解釈論は別として)合理的であるという点につき、私なりの考えを述べたいと思っております。もちろんAI開発・学習の段階に限らず、生成・利用段階での依拠性をめぐる議論や、AI生成物と創作的寄与をめぐる議論など、著作権法上の論点は尽きませんが、本日は時間の関係上、特にクリエーターの皆様(というふうに一括りにしていいのか分かりませんけれども)から問題提起されることが多い30条の4にフォーカスすることとします。

具体的には、もしフレームワークを変えると何が起きるかというところから裏を返して、現行法の枠組みが合理的であるということをお話しします。日本の著作権法のせいで仕事が奪われてしまうとか、ともすると著作権法を過度に悪者にしてしまう風潮がありますけれども、そういう風潮は危険だと考えています。逆に、著作権法に過度な期待をしてしまうというのも禁物だと思っていますので、その点にも少し触れます。

3点目としては、以上のようにお話しすると、著作権法というのはAIガバナンスの中の単なる1つのツールにすぎないという印象を与えてしまうかもしれませんが、私としてはそのように申し上げるつもりは全くありません。逆に、著作権法の個別の解釈論は非常に重要であると思っております。横断的な検討を充実させる前提として、だからこそ、著作権法自体の守備範囲を明確にすることは極めて重要でありまして、その意味で、ぜひとも先生方による議論の深化を私も期待しているところです。

最後に4点目として、クリエーター対AI事業者のような、ともすると単純な対立構造に見られがちですけれども、そのような図式は非生産的だということもお話しします。クリエーターもAIのユーザーであり、うまく使いこなせば、よりクリエーティブな作業に人間が集中でき、さらなる創造性を得られる可能性はあると思っておりますし、現にそのような使い方をする人は増えています。単純に過剰な規制をすると、クリエーターにとってもブーメランになりかねない側面があります。

なお、各論に入る前に、私は政府や自民党のお仕事もさせて頂いていますが、今日お話しすることは特に政府や自民党としてこのように考えているという趣旨では全くなく、単に私個人としての私見にすぎませんので、その点はあらかじめ御了承下さい。

それでは、各論に入りたいと思います。まず1点目ですけれども、著作権者が感じる脅威の多くは複合的であるということで、AIをめぐるリスクをめぐっては様々な場所で多くの整理がされています。スライド4頁では、私も委員を務めるAI戦略会議が本年5月に提示した「暫定的な論点整理」で指摘した7つのリスクと、その前月に自民党が公表した「AIホワイトペーパー」が指摘しているリスクについて少しお話をします。

まず、AI戦略会議の提示したリスクをここに列挙しましたが、著作権侵害のリスクも1つの独立したリスクとして挙げつつ、他にもAIによって失業者が増えるリスク、偽情報、誤情報などが社会を不安定化・混乱させるリスク、機密情報の漏えいや個人情報の不適正な利用などのリスクをはじめとして、様々な観点でのリスクを挙げております。

自民党の「AIホワイトペーパー」は、人権や人の健康・安全等を侵害するリスクのほか、安全保障上のリスクとしてAIの軍事利用、サイバー攻撃、データや技術の流出、情報操作などを挙げるとともに、民主主義プロセスへの不当介入のリスクも特掲し、例えば外国勢力が不当に介入してくる、歴史認識をゆがめる、政治家を装ったディープフェイクを広めるケースなども含め、もし重大なリスクがあれば踏み込んだ法規制も含めて検討すべきではないか、と提言しています。

このような複合的リスクも踏まえて考えると、よくAIにクリエーターが仕事を奪われるということが言われますが、これはいわゆる著作者としてのクリエーターに限らず、広い分野・職種(創造的な業務も含め)の知的専門職に多かれ少なかれ共通する課題と考えております。

従来からAIが仕事を奪うリスクが指摘されてきましたが、特に生成AIの登場で、これまで参入障壁が高いと思われていたホワイトカラーの皆様が広く危機感を持っている状況です。しかし、そのような問題との関係で、著作権が関わる部分はもちろん重要ではありますけれども、全体から見ればあくまで一部なのかなと思っていますし、世の中の知的専門職の方々には、著作物をつくり出すという形に限らず、それ以外の様々な形で知的貢献をされている場面がある中で、著作権の部分だけを殊更に極めて特殊な問題として取り上げるというのもどうなのか、批判的な観点も含めて考える必要があるように思います。逆に著作権法が変われば、では失業リスクがなくなるのかといえば、そういうことでもないのかなと思っております。

あとは、報道機関などのコンテンツについても、もちろん著作権で保護されるコンテンツは多いですが、著作物であるか否かにかかわらず、フェイクニュース等の観点からの対策も非常に重要になっております。

こういった観点も含めて、著作権の問題をAIのリスク全体の中で適切に位置付ける必要があります。

逆に、著作権を離れてAIガバナンスの検討をしている立場からみても、やはり著作権のことは真剣に考える必要があり、両者が密接に交錯することを理解しなければなりません。主に透明性、説明可能性、公平性といった観点から検討される様々なAIガバナンス関連の対策というのは、著作権との関係でも非常に重要なインパクトを持つだろうと思っています。

スライド5頁では、代表的な例として5つほど、AIガバナンスの大きなテーマを挙げさせていますが、いずれも上段の著作権以外の部分ももちろん重要である一方で、その全てが結局著作権との関係で密接に関わってきます。

例えば、MADE WITH AIの表示をすべきという議論も、偽・誤情報、倫理問題、人権問題、の対応や民主主義プロセスへの介入抑止といった観点から重要である一方で、その生成物がAIを利用してできた事実を知るということで、それが著作物なのかどうかということの疑問を持つきっかけにもなるし、既存のコンテンツを持っているコンテンツホルダーの方からすれば、自分のコンテンツがこのようなAIの学習に使われていいのかどうかということを検討する契機にもなります。

同じように学習データやその収集ルールについても、トレーニングをする主体に公開させるべきか否かという議論がありますが、著作権との関係でも、公開されていくと、依拠性の有無の判定が容易になるほか、オプトアウトの問題意識の契機にもなったり、ライセンス交渉を促進するトリガーにもなっていくのかなと思っています。

入力情報、出力結果の各フィルタリングについても、様々なサービスプロバイダーがこのようなことを意識してサービスを提供するようになっていますが、第三者著作物の入出力抑制による侵害リスクの低減につながっていくわけですし、著作権侵害防止技術の発展にも関わってきます。

また、許容しない利用方法の宣言についても、利用規約で明記することで、著作権侵害を契約違反としても位置づけることによる侵害リスクの低減にもつながっていきます。

このように、代表例としての主なテーマだけを見ても、非常に著作権と密接に関わる部分が多いということが分かると思います。

それでは次に、このように、著作権の問題を著作権法に「閉じた」議論ではなくAIガバナンスも含めた全体の中を構成する要素として改めて眺め直した場合に、現行著作権法、特に時間の関係上、本日は30条の4に絞りますけれども、この制度設計がいいのかどうかということについて私見を述べたいと思います。

まず、スライド6頁で1つの仮定を置きます。もし著作権法30条の4をなくして、あるいは大幅に適用範囲を限定して、原則として機械学習に著作権者の許諾を原則必要としたら何が起きるのかということですけれども、一見すると短期的にはコンテンツホルダーにとってはハッピーな世界が生まれるようにも思われますが、実際にはそう単純ではないだろうと考えています。

まず、日本法を変えたとしても海外企業による機械学習を止めることは困難です。

また、よくこの種の規制論議で問題になるのですが、権利保護のために大幅な規制をしようとすれば結局何が起きるかというと、任意の交渉で許諾すること自体は否定されませんので、そうすると交渉力の大きい一部の企業だけが許諾を得てしまって、更なる独占・寡占が生まれるのではないかという問題が、日本だけでなく海外でも指摘されています。

ここで、著作権とは違う話であるものの、1つのアナロジーとしてプライバシーと競争法の関係について触れています。プライバシーも個人の権利利益の保護という観点から規制を強めれば強めるほど、当然メリットもある一方で、やり方によっては、従来はデータ共有によるエコシステムが構築されていたものが、結局、個人と直接の接点を持ってデータを直接取得できるビッグテックの企業ばかりがデータを囲い込んでしまう、それはプライバシーを大義名分として競争法上の悪影響を容認することになってしまうのではないか、という趣旨の指摘がされることもあるわけです。もちろん著作権とプライバシーは異なる問題ですが、似たような問題意識というのは注意する必要があります。

あとは、先ほども指摘したとおり、クリエーターもAIのユーザーなので、クリエーター自身によるAI利活用に支障を来すのではないかという問題や、AIガバナンス特有の観点として、許諾を得られた一部のコンテンツしか学習に使えないということになると、AIモデルにバイアスが生じて望ましくないという問題もあります。

また、そもそも許諾が必要だとしても、現実問題として、ブラックボックス化した機械学習に対してどうやってモニタリングできるのかという限界の問題もあります。

あとは、外国の制度と対比すると、例えばイギリスの権利制限規定は非常に狭いわけですけれども、イギリスからは世界的に有名なStability AI社のようなAI企業が活躍しているという実態もありまして、結局、著作権法というよりもむしろ企業マインドとかカルチャーのほうが重要な要素になっているのではないか、という可能性も考えられます。もちろんStability AI社に対しても著作権侵害訴訟が提起されていますので、訴訟の結果次第というのはあると思うのですが、少なくともそういうベンチャーが生まれているというのは事実です。

そういう意味では、単純に機械学習のために著作権者の許諾を必要としても、必ずしも根本的な解決にはならないし、集中した市場の不公平を是正することにもならないのではないかと思っております。そのような検討を抜きにして、著作権法を過度に悪者にする風潮というのは危険だなと思っております。

もっとも逆に、著作権法への過度な期待も禁物かなと思っておりまして、30条の4があるからグローバルにみて競争力のあるAI産業が日本から順調に育ってきたかというと、様々な課題も残されています。

また、検索エンジン例外についても似たような議論で、仮にずっと前から検索エンジン例外規定があれば、素晴らしい和製検索エンジンがもっと生まれていたはずであるか、と言われればよく分からないところもあるわけでして、要は適度な距離感を持って著作権法と付き合うというのも大事なのかなと思っています。

スライド7頁以降では、ほかに代替的・補完的な枠組みを採用したときに、30条の4よりもいい世界が生まれるのかという点を少し考えてみます。

第一に、機械学習に対して差止請求権はないが金銭的な対価請求権を設けるというアプローチが考えられます。ただ、このアプローチについては、そもそも対価の有無や多寡の問題ではなく自分の作品が学習に使われるのを拒否したいというよう著作権者にとっては意義の乏しいフレームワークだと考えられます。

また、実際にこのような制度設計を実装しようとした場合の課題があまりにも多過ぎるという問題があります。膨大なコンテンツの機械学習について、法による全著作権者への公平な対価還元というのは技術的にも実際上不可能かなと思っております。誰から幾ら徴収するのか、どのようなルールで分配するのか、誰が何を使ったのかをどうモニタリングするのか、コンテンツに応じて価値の差を設けるのかどうか等、課題は尽きませんし、仮にそれを実現したところで、非常に小さなポーションの対価を受け取った個別の著作権者にとって実質的なインセンティブになるかというと疑問です。

あとは、政策的な観点から、特定の業界に限定した対価還元スキームのような設計があり得るかと言われると、法技術としては可能なのかもしれませんけれども、その業界を優遇するための合理的な説明が困難であるようにも思っております。文脈は違いますが、特定業界という観点でいうと、海外のニュース・メディア交渉法などは参考になるかもしれません。これは、デジタルプラットフォーム事業者からメディアに利益を還元する、それによってメディアの多様性、持続可能性を維持するというコンセプトを核としていますが、これはこれで、今日は時間の関係で詳細は割愛しますが、様々な課題があると認識はしております。

他方で、法律が強制しなくても契約による任意の対価還元スキームが成立している例というのはありまして、コンテンツホルダー側にもAI事業者にもWin-Winの関係があるという場面は、個別のビジネス関係では少なからずあるように思います。

そのように考えると、当面の出発点としては、まずは任意の適正なアレンジを、AIガバナンスを通じてどのように後押ししていくのかという発想のほうが、地に足のついた建設的な議論としては求められているのではないか、と思っております。

次に第二のアプローチとしては、法令によるオプトアウトという設計があります。よく知られているところでは、EUのDSM著作権指令の中のTDM(Text and Data Mining)例外規定というのがありまして、御案内のとおり、3条では、非営利である科学研究目的であれば自由に利用できるとされる一方、4条では、営利目的の場合は権利者がオプトアウト可能であるとされ、権利者がオプトアウトできず自由に利用できるものについては、権利者が契約でオーバーライドしようとしても無効であることが7条で定められています。しかし、これが非常にうまく機能しているかというと、EUでもまだ始まって歴史が浅い制度なので、まだ確定的な評価をするには早いのかもしれませんけれども、試行錯誤が続いているという状況であるとみています。

EUでも、権利者と利用者の双方が満足するオプトアウトの仕組みというのはかなり困難ではないかという指摘があります。まず科学研究と商用利用の境界線の曖昧さという問題があります。純粋に科学研究と言い切れるものは実務的には限られており、究極的には程度の差はあれ商用利用の要素が一部に入っていることが多いです。ただ、それを全部禁止するというのも現実的でないわけでして、そうすると、EUで、結局、企業と大学の共同研究などを通じて、科学研究目的の例外が隠れ蓑として使われているのではないか、という批判も一部にはあるわけです。

また、技術的実装の困難さということで、検索エンジンの場面ではrobots.txtというのが昔からありまして、AI等の文脈でもこれが改めて注目されていますが、検索エンジンと同様にストレートに機能するかというとまだ課題もあるかなと思っておりまして、デジタルコンテクストの多様性ということで、同一・類似のコンテンツがあるところでオプトアウトをしても、様々な文脈で公開されている、あるいは、同じウェブサイト、ファイルの中でいろんなクリエーターの著作物が入っている、あるいは、著作物が第三者によってさらに配布されていったりする場合に、どこまで確実で有効なオプトアウトができるのかということは疑問も残るところです。

さらに、検索エンジンの場面であれば、選択が尊重されているかの検証は、実際に検索結果をみれば一定程度分かるのですけれども、AIの場面ではオプトアウトの遵守をどのように実効的にモニタリングをするのか、という問題も残ります。この点もAIガバナンスに関わってくるところではありますけれども、EUでも相当課題があると指摘されていると認識しております。

また、法令上のオプトアウトを日本で導入する場合、契約によるオーバーライド問題も正面から整理する必要が高まります。この点は、皆様御案内のとおり、日本では解釈論に委ねられていて、今までも様々な解釈論が積み重ねられつつ立法的にはクリアになってないわけですけれども、もし日本で法令上ここまでの範囲であればオプトアウトを認める、ここからの範囲は認めないと制度設計した場合に、契約によるオーバーライドの問題についても立法的に明確にすべきということになるかもしれません。EUでは先ほど申し上げたように、7条がこの点を明確化しています。

そうすると、オプトアウトのアプローチについても、先ほどの対価請求権と共通する面がありますが、法律による強制というのは課題が多い一方で、既に契約、技術によるオプトアウトが成立している例というのはあります。日本でも、そのようなアレンジは禁止されていません。例えば、OpenAIのGPTBotをブロックしていくこともできますし、ニューヨーク・タイムズなどは、報道されているとおり、AIによる学習禁止を利用規約で明記しています。このような例は珍しくありません。

ここでも、まずは任意の適正なアレンジを、AIガバナンスを通じてどのように後押しをしていくのかという発想が求められているように思っています。

ちなみに、私もAIガバナンスを通じた後押しによって全ての問題が解決すると申し上げるつもりは全くありません。ただ他方で、現実味の乏しいフレームワークを特定のステークホルダーにとっての理想論として追求するよりは、一歩ずつでも着実に、AIガバナンスを前に進めるための議論をまずはマルチステークホルダーで深めていくというのが、順序としては建設的であるように考えている次第です。

ここまで話したところで、既に大分時間が押してしまいましたけれども、著作権の文脈でもAIガバナンスを意識することが非常に重要だということをお話ししたところで、ここから日本と海外のAIガバナンスの議論について、ごく大雑把にお話をしたいと思います。

まず注目されているEUについては、御案内のとおりAI規則案があります。ここでは4種類のAIに分類をした上で、リスクに応じて規制の程度を変えています。

特に注目されているのはハイリスクAIであり、様々なタイプのものがここに分類されているのですが、ハイリスクAIに該当すると比較的厳しい義務が課せられます。ここで1点お話ししておきたいのは、よくEUの規制というのはその厳しい側面ばかりが注目されがちなのですが、必ずしも全てにおいて逐一細かい行為規制が網羅されているわけではありません。むしろ、自主規制と政府規制の混合的な形態としての共同規制的なフレームワークが採用されている面があります。特に標準化機関による規格の策定や、適合性評価機関による評価などがその例です。そもそもAI規則案はまだ成立はしていませんし、成立したとして実際どこまで厳しく運用されるかにもよりますが、共同規制的な側面については認識しておくべきように思います。

その欧州のAI規則案ですが、直近の動向、そして著作権との関係で注目される点としては、今年の6月に欧州議会で修正案が採択をされたことが挙げられます。まだ法律として成立したわけではなく、欧州委員会やEU理事会との3者対話が継続していますが、この修正案で注目されているのは、特に生成AIで使用されるものも含めて、基盤モデルの提供者について28b条で加わっている点です。その中でも著作権関連では、スライド12頁のような義務が生成AIに使用される基盤モデル提供者に課せられています。

具体的にはAIを使っていることを明示することのほか、著作権に特化した規定ではないですが、EU法に違反するコンテンツ生成に対する適切な保護措置を実装する義務であったり、さらには著作権に特化した規定として、著作権で保護されている学習データについての詳細な概要の文書化・公表が求められています。

この規定が具体的にどこまで厳しいレベルの義務を課しているのかは、途中で修正された条項という事情もあってまだ議論が続いているところですが、先ほど申し上げたEU DSM著作権指令のオプトアウトメカニズムとも連動する問題といえます。まさにこのような規定は、著作権の問題が著作権法ではなくてAIガバナンスに係る法律の中でも規定される方向で議論が進んでいるという顕著な例です。

次にアメリカについては、様々な動きがあって逐一取り上げるのも大変なのですが、アメリカ政府は、現時点ではEUのAI規則案のようなハードロー的発想とは一線を画していることと、規律の対象としては開発企業に重きを置く傾向があることは指摘しておきたいと思います。その中で、最近の具体的な動きとしては、バイデン政権が7月に大手開発企業からvoluntary commitmentsを取得したというものがあります。その具体的な内容としても、やはり著作権に関係するものも含まれています。

では最後に日本はどうかという話ですが、日本では少なくとも当面はガイドラインベースのソフトロー・アプローチが採られています。スライド14頁では、AI戦略会議が5月に公表した「暫定的な論点整理」から一部抜粋をしています。ここでは、既存の法制度やガイドラインを前提として対処できるものは周知徹底など早急に対応する。ただ既存の法制度・体制等では対応できない可能性がある場合には改めて対応を検討すべきと提言しているにとどまり、特定のアプローチを明確に推奨しているわけではありません。その意味では、リスクが重大であれば今後ハードローの可能性も含めて検討する選択肢は排除していませんが、最初のステップとしては既存の法制度やガイドラインの統合・改定等でどこまで対応できるのかを今検証している段階と評価できます。

スライド15頁のとおり、リスクベースアプローチを前提として、リスクの洗い出しと現行法令での対応可能性を確認している状況です。今、政府で具体的に動いている作業としては、事業者向けのガイドラインのうち特に重要なものとして。経産省GLが1つ、総務省GLが2つあるので、まずこの3つを見直して統合していくという作業を進めているところです。

当面はこのガイダンスベースのソフトロー・アプローチを深化させていくことが合理的だと思っているのですけれども、今後の課題としては、そもそもガイドラインはその性質上法的拘束力がありませんので、そもそも各企業がガイドラインに沿った施策をどこまでやっているかというモニタリングが難しく、社会や利用者からみたトラストをどう確保していくのかという点があります。また、ガイドラインに沿った施策を実施するためのインセンティブをどう確保していくのか。やってもやらなくても法的に変わらないのであれば、正直者が馬鹿を見ることになりかねないのではないか、という指摘もあります。このような課題については、ガイドラインのアプローチを更に進化させていく中で、引き続き検討が必要となってきます。

最後のスライド17頁では、ここまでお話ししてきたことを踏まえて、日本のAIガバナンスと著作権制度をよりよく連携・調和させていくための様々な発想の可能性を幾つか挙げています。ここで挙げているのはあくまで単なるアイデアの可能性にすぎず、この中で具体的にこのアプローチを採用すべきということを申し上げる趣旨ではありません。政府がルールベースで一律の規律を作ることに限界がある中で、著作権の観点も踏まえてどのようなAIガバナンスの枠組みが望ましいのかということですけれども、例えば、共同規制的な発想の是非について更に議論を進めていくことも考えられます、先ほども話したとおり、細かい行為規制で縛ることは現実的でない一方、ガイドラインで自主的な措置を求めていくことにも課題がある中で、1つの発想として共同規制的な発想、これも開発者なのか、学習者なのか、提供者なのか、利用者といった様々なレイヤーによってなじむ主体となじまない主体がありますが、そのような発想の可能性も含めて柔軟に考えていくことはあり得るのではないかなと思っております。

また、多岐に亘るAIガバナンスをどこまで実施しているかをチェックするためには第三者評価、これも具体的にどこまでできるのかというのはもちろん議論はありますけれども、これを充実させるという可能性は考えられますし、しかもそれをより実効性を持たせるためには公的な枠組みに基づく裏づけのあるような制度設計の是非も含めて議論する価値はあるのかなと思っております。

また、行動規範の遵守や侵害防止技術の採用の有無と、著作権侵害の主体論や責任論をどう連動させていくべきか、という問題もあります。侵害防止のために頑張ってAIガバナンスを実行している者は、一定の条件で免責をされるとか、逆にきちんとAIガバナンスをやっていない者は主体論や責任論との関係で不利になるといった制度設計が、解釈や立法でどこまでできるのか、という議論も考えられます。

あとは、産業財産権法、不競法、パブリシティー権などについても、著作権とは違いますが関連する議論はありますので、それらも連動して加味した制度設計が必要になってきます。また、繰り返しになりますけれども、私は著作権法の個別の解釈論が重要でないと申し上げるつもりは全くなくて、むしろ非常に重要だと思っておりますし、私自身もそうした解釈論が大好きでして、30条の4の解釈、依拠性・類似性の解釈、侵害主体論、AI生成物と創作的寄与の解釈、まさにこういった議論については生成AIなどの実態もふまえて深めることで、限界はあるかもしれませんが、著作権法自体の守備範囲を明確にしていく、少なくともそのように試みるということは引き続き重要であり続けると思います。

最後に、クリエーター対事業者という単純な図式は非生産的という点です。冒頭で申し上げましたとおり、単純な規制強化というのはクリエーターにとってブーメランにもなりかねず、また特定の大企業の独占・寡占の助長になる可能性もあり、バランスの取れた制度設計が必要になってきます。

ぜひ、著作権制度の設計がAIガバナンスと有機的に連動して適切なものになるように、また、AIガバナンスの設計も正しい著作権制度の理解の上に成り立つように、皆様のお知恵をお借りして一緒により良い制度を考えていければと強く願っております。

本日は長時間ありがとうございました。

【茶園主査】岡田様、どうもありがとうございました。

では、ただいまの御説明を踏まえまして、御質問、御意見等がございましたらお願いいたします。

福井委員、お願いいたします。

【福井委員】委員の福井でございます。岡田先生、本日は大変充実した御発表ありがとうございました。もうほとんど御指摘についてはおっしゃるとおりと思うのですけれども、若干ブレスト的にコメント、質問を何点か挙げさせていただければと思います。

まず、4ページあたりで著作権についてあまり特化した対応を行い過ぎると、これは知的貢献をする多様な者の間で異なる枠組みを持ち込むことになるんじゃないかという御視点、御指摘があったように理解しました。

しかし、これはもともと法制度というのはそういうもんじゃないかという気がしたんですね。創作を行う者に対しては著作権法制、発明を行う者に対しては特許法制と、それぞれ異なる枠組みで対応することは法制度にとっては当然のことのような気がしましたので、この点はどうかということ。

それから、幾つもの視点、全くおっしゃるとおりなんですね。海外企業の学習を止めるのはそもそも困難ではないのかとか、あるいは対価請求権を入れても拒否したい者には意義が乏しいんじゃないかとか、実装の課題があるんじゃないかとか、そのとおりなんです。このことから感じた全体の論調としては、制度だと完全性を担保できない。モニタリングの課題も残す。よって、今のところは制度論というよりはその他のAIガバナンスで後押しをすべきじゃないかという論調かなと理解したんですけれども、しかし、これ、AIガバナンスでいくとしても、例えばガイドラインも、おっしゃったとおり、インセンティブをどう確保するかという課題を残すという意味では、完全性を担保できない、またモニタリングの課題を残すという点では一緒かなという気もするわけです。

ここでの質問は、AIガバナンスと仰るのは、多分ガイドラインなどかなりソフトロー的な方向と理解したんですけど、どう今のような限界を克服していくべきか。それから、どちらも完全でないんだとするならば、法制度論の議論、それから、ソフトロー的なガイドラインなどの手段とを組み合わせる、メニューミックスということが私には選択肢として浮かんでくるんですけれども、この点はどんなふうにお考えになるのか。

若干、わらわらと申し上げましたが、以上となります。

【茶園主査】岡田様、いかがでしょうか。

【岡田弁護士】福井先生、貴重な御指摘をありがとうございます。2点とも全くご指摘のとおりでございます。1点目の著作権法とそれ以外の法律がそもそも異なる枠組みをとっているという点はそのとおりで、私も実はスライド4頁でこの表現を入れるかどうか最後まで悩んでいたのですが、私がここで申し上げたかったのは、やはりどうしてもこういう議論になってしまうと非常に著作権に特化した議論、著作権独自の観点から議論をしたがるような傾向がどうしても生まれがちになってしまうので、そうではなくて、やはりAIの問題、著作権の問題、特許の問題、あるいは営業秘密の問題、さらには知的財産法以外の問題、これらが全部相互に連動しているので、それらをふまえた広い視野での議論が求められるということを指摘したかったという次第です。それぞれの法設計の元々の出発点が違うというのはおっしゃるとおりかなと思っております。

ただ、これまで以上に、AI時代の著作権のあり方を考えるに当たっては、ほかの制度との連動性をしっかり考えていかないといけない時代になってきているのではないのかなとは思っていますので、そのような注意喚起の意味を込めて記載させて頂きました。

2点目ですけれども、AIガバナンスを通じて解決するのか、著作権法を含む法律の枠組みで解決するのか。AIガバナンス自体もアプローチによっては法律の枠組みを通じて実現することもあるのですが、私自身も、先生がおっしゃるように、2択だというふうには全然思っていないし、AIガバナンスに正面から着目をして頑張っていかないといけないという思いはありますけれども、先ほど申し上げたように、AIガバナンスで全てが解決するとも思っていません。

そういう意味では、順序の先後関係として、先にAIガバナンスのことをやってから次に著作権という流れでは全然なくて、むしろ先ほど申し上げたように、著作権の個別の解釈も含め、あるいは政策論としては潜在的に立法というのはもちろんあり得るかもしれませんけども、それはともかくとして、法制度の問題とAIガバナンスの問題は並行して車の両輪として考えていく、お互いに意識をして高め合って、より良いものをつくっていくというメニューミックスのようなお話は、私も個人的には大変共感をしているところです。

【茶園主査】福井委員、お願いします。

【福井委員】応答、大変共感できるものでした。ありがとうございます。

なお、私も法制度を触るべきだという予断を持っているわけではありませんので、これも念のため申し上げておきたいと思います。以上です。

【茶園主査】ほかにございますでしょうか。

では、早稲田委員、お願いいたします。

【早稲田委員】ありがとうございます。大変すばらしい御報告いただきまして、ありがとうございます。私も、今いろいろとクリエーターの方が脅威を感じているところは著作権法で全てを解決できるものではない。そういう意味では、岡田先生が本日出された、閉じた議論、著作権法に閉じた議論というのはよくないのではないかというのは全くそのとおりだと思っております。

ちょっと各国の法と日本法の関係で御意見を伺いたいんですが、御指摘のように、現行、日本の場合は著作権法30条の4があり、各国はそういうものがないと。EUは今日御紹介いただいたようなデジタル単一市場における著作権指令が出ていて、こういう条項があると。アメリカは、法律がないので、今いろいろな訴訟が提起されていて、フェアユースがどの程度使われているかどうか分かりませんけれど、これから訴訟で、裁判である程度解決していくのかなと思っております。

それで、現行著作権法を考えるに当たって、やはり海外との整合性というか、調和も考えたほうがいいんじゃないかという御意見をいろいろ伺っているんですけれども、岡田先生としては、日本の30条の4が海外と突出しているとお考えなのか、それとも、実際的には条文は違っていても実効性としてはそれほど変わらないのではないかとお考えなのか、それはいかがでしょうか。よろしくお願いいたします。

【岡田弁護士】早稲田先生、ありがとうございます。そうですね。その点もぜひ本当に時間をかけて、先生方とたくさん議論させていただきたいところではありますけれども、私自身の今の考えを申し上げますと、確かに条文の文言としては各国で大分違うとは思っていますけれども、実態の運用として日本の著作権法の下での権利制限の運用が世界の中で極端に突出しているかというと、必ずしもそこまでの印象は持っていません。アメリカではフェアユースの条項がありまして、それがどこまで狭く、あるいは広く解されるかというのはこれから裁判等で明らかにされていくとは思いますけれども、基本的にはAI事業者はAI事業者なりのフェアユース条項の解釈をした上でビジネスを展開しているわけでありまして、そこである程度の機械学習の自由というのは担保されているという解釈になるんだろうと思います。それが裁判所でどう判断されるかどうかは別として、実態としてはそうだと思います。

イギリスも、先ほど申し上げたような話がありまして、これも裁判でどうなるか分かりませんけれども、EUもイギリスも非営利研究については柔軟な利用が認められているところ、結局は企業と研究機関の共同研究のような枠組みも通じてある程度自由に機械学習ができる素地はあるのではないかなとも思っているところもありますし、オプトアウトについても、実際にオプトアウトを活用している例というのは、まだ制度の歴史が浅いというのはありますが、相対的には少ないとも聞いています。

私自身の海外での最新の運用の実態を必ずしも正確にフォローできているわけではありませんが、そういった点も加味して運用実態も含めて考えた場合には、決して日本だけ突出しているわけではないと思います。また、いわゆるグローバルでの調和について過度に強調しすぎると、では権利制限規定について、各国それぞれの異なる規定を全て統一しないといけないのかみたいな話になりかねませんし、ステークホルダーの立場の違いに応じて、いや、もっと海外みたいに狭い権利制限規定しないといけないとか、あるいは逆に海外が日本のような権利制限規定を採り入れるべきとか、結局自分の立場に応じて都合のいい議論の根拠に使われかねないような気もしているので、あまりグローバルな調和を強調しすぎるのもどうかなと個人的には思っているところです。

【早稲田委員】ありがとうございました。

【茶園主査】ほかにございますでしょうか。

羽賀委員、お願いいたします。

【羽賀委員】羽賀でございます。本日は大変勉強させていただきまして、ありがとうございます。資料8ページ目のオプトアウト、DSM著作権指令のあたりでちょっとお伺いしたいんですけれども、とりわけAIですと、インターネット上の環境ということになろうかと思うんですが、例えば、恐らく日本のクリエーターの方が懸念されているのは、自分自身が例えば日本に所在して、それをインターネット上で公開したときに、勝手にそれを学習されてしまったと。例えばそこで、これは学習しないでくださいと書いたと、それがオプトアウトとして果たして有効と言えるのかと。あるいは、本当に、ちょっと極端な話になってくるかもしれませんけれども、実はその人、未成年で、オプトアウトできるのかとかいったような問題が出てくるのではなかろうかと思うんですけれども、そういったところ、まさしく今、まだ例が少ないのでと伺いましたが、この辺議論があったかどうかというようなことをもし御存じでしたら御教示を賜れればと思います。

【岡田弁護士】そうですね。今おっしゃったような点も含めていろいろ議論がされていて、正直決着がついていないところなのかなとは思います。個々のオプトアウトの有効性についても、検証のしようがないところもあり得るわけです。権利者にとっても不満はあるし、AI事業者の側からしても法的安定性がある制度設計になっているかという疑問があるという中で、技術的な解決策も含めて議論はされているようです、それこそ、オプトアウトの一元的なデータベースを作って集中管理するメカニズムを作るべきであるといった議論もあるようですが、正直あまり現実性があるとも思えないので、そのような点も含めてかなり自由な議論はされていますけど、あまり収束してないのかなという感覚は持っています。

ただ、私もここは本当の意味で現地の専門家ではないので、ぜひ現地の専門家の意見があれば議論してみたいところではあります。

【羽賀委員】ありがとうございます。

【茶園主査】ほかに御意見、御質問等はございますでしょうか。

よろしいでしょうか。

では、どうもありがとうございました。御発表者は随時御退出していただいて結構です。

それでは、続きまして、資料2に基づきまして日本マイクロソフト社より御発表いただきたいと思います。

梶元孝太郎様、小島治樹様、どうぞよろしくお願いいたします。

【日本マイクロソフト社(小島氏)】ただいま御紹介にあずかりました日本マイクロソフトでございます。本日、政策渉外を担当しております私小島と法務を担当しております梶元と2名でプレゼンさせていただきます。よろしくお願いいたします。

本日、著作権を議論する場ということは承知をしているのですけれども、大きく3部構成でプレゼンを御準備させていただきました。第1部は、生成AIの概要と称しまして、そもそもいろいろブームになっているのですけれども、我々事業者でございますので、どういうAIの可能性があるのかということを先に御説明をさせていただきまして、第2部で弊社にとってのAIガバナンスである責任あるAIの枠組みを御紹介し、ここは著作権に限らず、法的・倫理的な面でどういうふうに考えているかということを御説明させていただきたいと思います。最後に、第3部としまして、著作権について弊社として考えていることを述べさせていただければと思います。

では、早速ですけれども、第1部で生成AIについてというところでございまして、この辺りは釈迦に説法のところもあろうかと思うのですが、AI、大きく言うと人工知能と呼んで、これ自身は古く1956年からあったものでございます。その後、機械学習、ディープラーニングとそれぞれの技術の発展とともに幾つかブームが来て、特にChatGPTが含まれる2021年頃から出てきたジェネレーティブAIが、今、足元、ブームになっているということでございます。

この生成AI、特に例示しましたChatGPT、大規模言語モデルと呼ばれますけれども、これ自身がどういう仕組みなのかというと、基本的には次の単語を予測する、そういう仕組みで動いております。そのため、「日本の首都は」来た場合に、次「東京」というのを返してくるのですが、これはデータベースなどを参照しているというわけではなくて、次に来る言葉が「東京」であるということが自然であるということを、膨大に学習したデータから回答を返しているということでございまして、「昔々あるところに」と来たら「おじいさんとおばあさんが」と返ってくるように、あくまで自然な言葉を次に返す、そういう仕組みでございます。

この仕組みが非常に計算技術の進化などとともにモデルが進化してきておりまして、このGPT-3というのが、話題になったChatGPTがGPT3.5でございますが、この辺りが非常に自然だという受け止めをいただいて、複雑な言語もよりよく理解できるということでございますが、足元ではGPT-4ということでございまして、次の言葉を予測するという仕組みではありますけれども、膨大なデータと計算量でもって、統一司法試験、米国のものですけれども、上位10%に入るレベルにまで成長しております。

また、言語・言語、言語を入力して言語を出すということだけでなく、画像を入れてテキストを出すというような異なった種類のデータも扱えるというマルチモーダルが可能になっておりまして、手前みそですけれども、弊社のマイクロソフトのBingでもこのGPT-4を使用しております。

そのプロダクトをまたぐという例がこちらでございますけれども、「日本のおじさんと猫」という、Bing Image Creatorで、画像を返すAIに入れていただきますと、左手にあるような絵が返ってきまして、また、別の「日本の社長のアニメ風イラスト」と入れると、ちょっとお好みかどうかというのは、いろいろな方の感覚に合うかどうかというのはあると思うのですが、右側のようないろいろなパターンの絵が出てくるということでございます。

こちらは、資料に入れてないので投影のみなので画面を御覧いただきたいのですけども、幾つかこういうような具体的な活用が考えられるという例も御用意しております。

1つはプログラムでございまして、ブロック崩しのゲームをやるということで、この上に出ているのがプロンプトでございますけれども、ポイントは、プログラムの言語ではなくて、実機が横バーでカーソルを動かすという、人間の言葉で言葉を入れるとプログラムがつくれるというものでございます。

今ちょっと動かし始めましたけれども、このような形で、HTML、つまり、ウェブブラウザでできるような形のコードを書いていくというのを自動でやってくれます。

これも一通り終わった後に、HTMLのコードをローカルに貼ってウェブブラウザで開くとゲームができますよという親切なガイダンスが来まして、これを少し進めると、今右側にありますけれども、いわゆる皆さんが御想像するようなブロック崩しのゲームが動くというような仕組みになっております。

これは言語から、プログラミング言語で文字対文字ということでありますけれども、次は写真から判断するということで、インプットは材料の画像でございます。これを一々タマネギとニンジンと入れることなく、この画像を読んで、これでどんな料理が作ることができますかということですと、下に出てくるような幾つかの料理のアイデアを返してくれる。こういう画像からテキストという出力も可能になっているということでございます。

ただ、こうしたAIに多少限界がございまして、まず調べるという観点から、ChatGPT自身は2021年までの情報しか持っておりません。ですので、2023年のこういう結果を返してくださいというのは回答ができないということでございますけれども、弊社はそれを技術的に克服しようとしておりまして、マイクロソフトBing、これは検索の要素もあるのですけれども、次の単語を予測するという機能と検索の機能を掛け合わせまして、ごく直近のデータもリンクつきで持ってくるということを可能にしております。

加えて、先ほどの自然な言葉を返すということと関係があるのですが、お薦めの飲食店といった場合に、すし、魚、たくみと書いて、これ実在しない店なんですけども、言葉として、次、自然であるというものが返ってくるだけで、基本的に実在するかどうかというのは別の次元であるというのが基本的な言語モデルではあるんですけれども、同じく弊社はリンクの形で検索の力を借りてきまして、Webサイトから引用して、実際に存在する店の中から選んでくるというようなことを可能にしております。

こうした関係で弊社がAIについてどういうような価値観を持っているかというと、Copilotということで副操縦士だと思っています。基本的にはメインパイロットとして人がいる前提で、その人をサポートするためにAIがいるんだという発想でおります。

特に弊社のプロダクトであるMicrosoft365ということですが、こちらもワードとパワーポイントはデモを御用意したので、エクセルから説明させていただきますけれども、例えば関数を覚えなくても、チャットで伝えるだけで分析をしてくれたり、Teamsにてテレビ会議のところで途中から人が入ったときにそれまでの要約をつくってくれるというようなことをしてくれます。

ワードについて動画で説明をさせていただけたらと思うのですけれども、今、これ、提案書を作ろうとしています。ノートという形で箇条書ができているような段階で、これで提案書を作ってくださいという作業をしております。

これで提案書をつくってくれるんですけれども、書式を昔使った提案書と一緒にしたいなということで、この書式を使ってくださいという指定をすると、このワードが形を変えて出てきます。ここで、サマリーが足りないということであれば、サマリーを入れてくださいという指示だけでサマリーを入れてきまして、ちょっとFAQなども足したほうがいいかなということであれば、FAQを足してくださいという指示だけでFAQが後ろについてくる、そういうような作業が可能になります。

これがワードでございまして、このようにできたワードを、提案に行くということでパワーポイントに直すということでございますけれども、この場合、まずここでは今つくったワードをこれからパワーポイントに直そうとして呼び込もうとしております。

ここに出ているのが先ほどつくったワードのファイルでございます。この段階で、ある程度プレゼンテーションに使えるというものでございますけど、あくまでCopilotですので、人の目でチェックして、少しコストベネフィットのチェックが足りないなというのであれば、それを1枚足してくださいというような指示ができます。

このようにちょっと見てみて、文字が多いなというようなことであれば、これを少しビジュアライズしてくださいということも可能ですし、これをアニメーションにしてくださいと入れればこれがアニメーションになります。

あと、プレゼンテーションをされるとき、下の部分でノートをつくられることもあると思います。今、赤枠の部分ですね、こちらもつくってくださいというようなことが言葉で指示するだけで可能になります。

こういうように、AIについて、ChatGPTとかおなじみのところもあるとは思うのですけども、いろいろな製品に組み込むような形で、すなわちAIのCopilotという形でいろいろな方々のオフィスワークなどを中心に生産性が上がるのではないかというのが、弊社が考えているところでございます。

続いて第2部の責任あるAIについて移らせていただきます。責任あるAIは、弊社が法的・倫理的な観点でAIが正しく使われるために行っている取組でございますけれども、生成AIのブームから始めたわけではなくて、2016年に弊社のCEOであるSatya Nadellaがそのコンセプトを表明して以来、ずっと続けてきた取組でございまして、途中、2018年にはAI原則というのを出しておりますし、2022年には弊社がつくっている責任あるAI基準というのを公表しまして、ほかの方々にも御活用いただけるように工夫をしております。

この生成AI以外のブームも含めまして、下の囲みにございますけれども、2023年6月には、カスタマーコミットメントという形で、さらにどういう姿勢でAIに取り組むかというのを公開しておりまして、1つ目は、今申し上げたように、弊社としての知見を広く活用して、お客様も同様なことができるようにすると。

2つ目のポツの中の2個ある中の下のほうですけれども、AIガバナンスに関する青写真を米国で公表しておりまして、弊社として、特に技術に携わる者からどういうような政策があり得るのかというのを御提案したりしております。

先に政策のほうでございますけれども、例えば弊社はこういう技術のテクノロジースタックに応じた規制が考えられるんじゃないかと考えておりまして、一番下にデータセンターのインフラストラクチャーがあって、1つ飛ばして真ん中でございますけども、モデルがあり、その上にアプリケーションがあると、そういう構成になっております。

一番上のアプリケーションに関していうと、先ほどのCopilotと考え方は近いのですが、ある種人が必ず介在するという場面では、多くの場合に既存の法制度を遵守するということが確保されているところでやれるんじゃないかと思っていまして、例えばAIというのは非常に汎用的なツールでございますけれども、著作権に関していうと、例えばコピー機であったり、パソコンが出てきたり、そういうときに関しても、いろいろユーザーの幾つかの使用場面においては著作権侵害が起こり得るというようなユースケースもあると思うんですけれども、そういう場面においても、既存の考え方というのを援用し、もし足りないところがあれば、それで直していくと、そういうようなアプローチがとられていたのではないかと思っております。

一方で、その下のレイヤー、詳細はちょっと割愛しますけど、モデルであったり、インフラであったりという部分はどういうふうに学習しているかとか、どういう技術的な制御が可能なのかということで、そういうものをある程度安全性の要件を示されて、それを守るという形でライセンス制という形がフィットするんじゃないかというような御提案をさせていただいております。

ツールの話で、弊社としてどういうようなことをやっているかというので、1つのツールとしてTransparency Noteというのがございます。これはAzure OpenAI Serviceの例ということで、弊社のAzureというクラウドを通じてOpenAI社さんのモデルを活用できるサービスでございますけれども、この右側にありますように、どういうユースケースを想定しているんだとか、あるいはユースケースを選ぶに当たって考慮すべき点みたいなものを出させていただいて、我々のサービスをお使いいただく前に、ユーザーさんでどういうような限界があって、どういうようなことが可能だというのを、お考えいただく材料を提供しております。

このほか、技術的なツールという意味では、Media Provenance Toolということで、主に画像が念頭に置かれているのですけども、AIによって生成されたかどうかというのを示すことができるような仕組みを用意する予定でございます。

これはC2PAと呼ばれるアドビさんなどと一緒に立ち上げた団体でございますけれども、日本だとソニーさんなども入られていると思いますけれども、こういうデータの生成元というのを追いかけるための規格に準拠しておりまして、Microsoft DesignerやBing Image Creator、実はBingも今、左下に小さくBが出るというような形で、Bingのアウトプットだというのが分かるようにしているんですけれども、いわゆる世の中の議論にも追いつきながら、このような仕組みを埋め込もうとしております。

【日本マイクロソフト社(梶元氏)】続いて、弊社の著作権・知的財産権についての基本的な考え方について御説明をさせていただきます。

イノベーションのための知的財産原則という考え方を今年の2月に公表しております。5つキーワードがございまして、フォーカス、連携、バランス、適応性、透明性です。

ポイントは、歴史的に知的財産は保護と例外を通じて、イノベーションを促進しているということと、AIによる社会課題の解決とイノベーションを進めるためには、データへのアクセスとデータ活用の連携が必要などという考え方を提示しております。

本日の議論の対象は著作権ということですので、それに関する考え方にフォーカスしてお話をさせていただきますと、まず前提として、生成AIというのはどういったものかということを理解するのが肝要ではないかと考えております。

私どもの理解では、生成AIは、コピーする機械やデータベースではなく、あくまでも数学的な計算を予測するアルゴリズムでありまして、プロダクトの観点から申し上げると、先ほど小島が御説明したように、Copilotと呼んでおりますけれども、あくまでもユーザーの皆さんがパソコン等の前で使っていただくことを前提としたツールでございます。

ですので、人間の判断や認知を完全に代替するというわけではなくて、あくまで知識のアクセス性や有用性を高める手段ではないかと考えています。

そのような前提で捉えていきますと、大きく3点の着眼点があるのではないかと思っています。

第1には、これは当然でございますけれども、AIのサービスやツールやそれを利用するユーザーは著作権を当然ながら尊重しなければならないという点でございます。

第2点に、多く人々、我々を含めてですけれども、テクノロジーを用いて著作権で保護された作品を基に知識を深める権利があると考えております。この点に関連しまして、先ほどプレゼンテーション等でも言及がありましたけれども、日本では30条の4という権利制限規定が設けられていることによって、イノベーションを促進するような法制度を設けてくださっていることについて、我々もサポートする考え方を基本的には持っております。

これにより、私どもも含めた生成AIサービス提供者が様々な製品開発や提供することを通じて、クリエーターの方々を含めた多くのステークホルダーの皆様にとって魅力的な環境になることを非常に望んでおります。これに関連する点ですけれども、生成AIは大量のデータで学習することをもって正しいアウトプットを出せるというふうな観点がございます。ですので、大規模なデータにアクセスできない、限られたデータへのアクセスですと、バイアスを持った不正確で安全でないアウトプットをもたらしてしまうという点についても配慮が必要ではないかと思います。

最後に第3の着眼点として、AIのツールというのは狭い範囲ではなく社会に広く利益をもたらす必要があると考えております。先ほどの御説明は、ワードやパワーポイントといった皆様になじみのあるツールを中心に御紹介しておりますけれども、例えば、海外での災害救助といった人命が関わる社会課題の解決においても生成AIを用いたツールは、現在でも現実に広く用いられております。そういった広い着眼点から、著作権についても考えていく必要があるのではないかと思っております。

関連する事項といたしまして、AIのサービスが生み出すアウトプットについては、例えば、一定のご懸念を持っていらっしゃる方かいることや、著作権に関連する問題が提起されているということは我々も理解しておりますので、そういったお声については引き続き対話をしていきたいと考えておりますし、次のスライドで少し御紹介するような取組を既に私どもでは実践しておりますので、それを御紹介させていただきます。

こちら、新しいBingで、御利用いただく際に、ユーザーの皆様が結果として著作権を侵害してしまうアウトプットを生成するリスクを緩和する仕組みを既に搭載しております。例えば、プロンプト、右側のボックスの紺色で、濃い色でグレーアウトされている部分ですけども、ここはある海外の小説の名前が具体的に出てきて、この小説の第1章をそのまま読みたいんだけどというふうなプロンプト、入力がされております。それに対して、アウトプット、出力のほう見ていただきますと、それは著作権で保護されているので出すことができませんというふうな応答がされるようになっています。

メタプロンプトとフィルターというふうなメカニズムを用いておりまして、このような機能を既に搭載をしております。

続いて、画像生成のほうですけれども、こちらもクリエーターの方の懸念に応える形で仕組みを搭載しておりまして、生存するアーティストの方が御自身の名前をウェブ上のツールから弊社宛てに御報告いただくことによって、そのお名前に関連づけられた画像の生成を制限することが既に可能になっております。

このように、基本、私どもの製品が社会に広く役立つことを強く願っておりますけれども、著作権については、関連する御懸念についてもこのような取組を進めております。

以上、簡単ではございますが、弊社の取組を御紹介させていただきました。本日はお時間いただきありがとうございます。

【茶園主査】どうもありがとうございました。ただいまの御説明を踏まえまして、御質問、御意見等がございましたらお願いいたします。

では、麻生委員、お願いいたします。

【麻生委員】麻生でございます。御説明ありがとうございます。最後のアウトプット関係のご対応についても大変勉強になりました。

1点お伺いさせていただきたいのですが、入力段階ですけれども、もし間違っていたら後で教えていただきたいですが、BingではOpenAI社のGPT-4を使っているということで、著作物の学習はマイクロソフト社が行っているのではないと理解しました。もちろん日本では学習段階では著作権法30条の4がありますので著作権は制限されていますが、法的に問題がなくとも、著作権の権利者団体やクリエーターなどからは不満みたいなものがあったりして、BingでGPT-4を使うということ自体に対して、マイクロソフト社に何かしらの社会的な責任があるかのような批判的な言葉も投げかけられるようなことがあるのではないかと思います。そうした場合、法的な問題はなくとも、企業としてのレピュテーションリスクですとか、社会的な責任の追及への対処ですとか、その辺りはマイクロソフト社としてはどこまで対応しなければいけない責任があると考えているのか、もしくは、どこまでがあるべき責任と考えてどのように対応しているか、ということがあれば教えていただきたいと思いました。

以上です。

【日本マイクロソフト社(梶元氏)】御質問ありがとうございます。非常に重要な御指摘だと考えておりまして、まず、GPT-4は、OpenAI社の学習モデルに基づき提供しておりますので、学習自体は、マイクロソフトは直接には行っておりません。

社会的責任という観点ですけれども、まさに最後に御説明したBing Image Creatorというのは、実はこれは、生成AIに基づき何らか不利益をこうむるのではないかというふうな方々と弊社との対話との結果生まれてきたツールでございます。社会的責任の一つと言い換えても良いかと思いますけれども、そういった具体的なご懸念を挙げていただく方と対話をしていきながら、私どもも、引き続き、どういった形の対応が適切なのかというのは考えてまいりたいと思っております。

【麻生委員】ありがとうございました。

【茶園主査】ほかにございますでしょうか。

福井委員、お願いいたします。

【福井委員】充実した御発表大変ありがとうございました。全般には、マイクロソフトさんのマニフェスト、御姿勢を説明いただいたような印象があります。その中で、現在、多くの創作者、権利者から、例えば自分の作品の不本意な学習、それから、収益還元の不在、それから、生成物の侵害リスク、これらを一言で要約すれば過度なフリーライドへの懸念ということになろうかと思いますが、こういう指摘が少なからず見られるようです。

この中で、侵害リスクの点については、メタプロンプトやフィルターでの画像生成の制限等、実効的な対策を若干御紹介いただいたように思うんですが、他の例えば不本意な学習とか、収益還元の不在についての指摘などに対する実効的な対応ですね、のマニフェストをどう実効あらしめるのかのところ、もし今お答えいただけることがあれば、もう少し教えていただけるとありがたいように思いましたが、いかがでしょうか。

【日本マイクロソフト社(梶元氏)】福井先生、ありがとうございます。非常に重要な御指摘だと考えておりまして、まず作品の不本意な学習に関しましては、本日、前のプレゼンテーションや質疑応答とも関連することがありましたけれども、例えば技術的な手段によってこれ学習しないでくれというふうな意思表示をされた場合、robots.txtというような場合には、私どもとしてもそれを尊重して学習はしないというふうな考え方をとっております。

エコシステムに関しては、先ほどの回答とちょっと重複してしまいますけれども、私どもは対話についてオープンですので、引き続き具体的なお声があれば届けていただいて、対話を続けてまいりたいと思っております。

以上でございます。

【福井委員】ありがとうございます。さらなる続報をぜひお待ちできればと思いました。

【茶園主査】では、今村委員、お願いいたします。

【今村主査代理】大変分かりやすい御報告をいただきまして、ありがとうございました。幾つか今のお話とも関連することも含めて具体的にお伺いしたいんですけれども、いろいろステークホルダーの方と対話の機会を持つような形で進められているということで、とてもすばらしいことだと思います。現在だと、例えば、特定のアニメのキャラクターの名称など、Bing Image Creatorとかに入れるとキャラクターに類似した画像が出てきますよね。ですが、システムが発展するにつれて、将来的には、そういったものは、権利者と対話の下で、出力して利用することも認められる可能性が出てくる。要するに、今だと侵害物が生成されてしまったら、どこが責任を負うかは別にして、2次利用はできないわけですけども、将来的なモデルとしては、そういったある種の権利者の同意の取れた形での学習がなされた素材に基づいて、出力されたものもまた利用者が自由に利用できるような、そういう形での利用も含めた対話がなされているのかどうか、それが1点目です。

あとは、Bing Image Creatorなども実際に私も使ってみたことありますけれども、利用規約に従って利用するわけですよね。現在のポリシーとしては、生成された画像の利用に関して、利用者との関係で、基本的には他人の権利を侵害しないようなものの場合には自由に使えるというようなことになっているのでしょうか。要するにマイクロソフト社さんのほうが利用規約上、権利を抱え込むようなことはせずに、利用者側が自由に使えるというような、そういった基本的ポリシーで利用規約みたいなものを設計されていらっしゃるのか。そうではないとはちょっと言いにくいのかもしれませんけど、やっぱりライセンスの自由度というのが生成物の自由な利用につながってくる話だと思います。それに、利用者は弱い立場にありますから、契約でいろいろ縛られてしまうと結局はあまり使えないということになると思うんです。たくさん質問あるんですけれども、この2点だけお伺いさせていただければと思います。

【日本マイクロソフト社(梶元氏)】非常に重要な御指摘、ありがとうございます。大きく2つ御質問、御示唆をいただいたと承知しておりますけど、1点目の同意を得た上での対応ができるかというふうな着眼点、御質問ですけれども、これは非常に悩ましい問題であると考えておりまして、少しプレゼンテーションでもございましたけれども、大規模言語モデルや弊社が提供している生成AIサービスに用いるAIというのはやはり大量の情報を学習しなければならないという前提があります。それは安全で正確なアウトプットや非常に効率よくアウトプットを出すために不可欠の前提なわけですけども、そういった観点で考えたときに、明確に同意を得たものだけで学習するというアプローチが現実的に可能なのかというとかなり難しいのではないかなと思っております。

そういった観点から、先ほどrobots.txtのようなものを尊重するというふうなお話を申し上げましたけども、ポイントは、マシーンリーダブルと申しますか、機械的に読み取りが可能であり、要するに大量に一気に学習をかける過程で、自動的にはじかれるような仕組みにしていただくと、それは生成AIのサービス提供者や開発者の観点から非常に対応しやすい方法であると考えていて、このような形で権利者の方の意思が尊重されるような仕組みであれば、私どもとしては望ましいと考えております。

2点目のアウトプット等に関連する権利侵害やアウトプットの著作権をどう考えるかというところも関連するのかなと拝察したのですけれども、弊社の製品の利用規約は製品ごとに違いはありますけども、企業向けの製品に関する大きなフィロソフィーを申し上げます。

まずアウトプットについて、弊社は基本的に著作権を主張しないというふうな考え方を御案内しております。

なぜこのような言い方をするかと申しますと、あるものについて著作権が発生しているか、著作物性が認められるかというのは、適用ある法律の作用によって基づくものですので、弊社からこれは著作権がある、ないと申し上げるものではないからです。

ただ、結果として仮に何か著作権が発生していたとしても、弊社としては使っていただいたお客様に主張しないというのが、特に企業様向けの多くのプロダクトではそのような話になっています。

結果的にアウトプットが不幸にも著作権侵害を招いてしまった場合の考え方ですけれども、出てきたアウトプットというのはお客様の判断で利用していただくということになりますので、それを利用した結果起こった侵害というのは当然ながら弊社は責任を負えない事項ですので、現時点では、基本的にお客様に責任を持っていただいております。この点は、もしかすると、ほかのツールを使って著作物をつくっている際に、ツールの利用者が、著作権侵害が発生しているかどうかをチェックしているポイントと非常に類似するのではないかなとも考えております。

簡単ではございますが、以上、御回答申し上げます。

【茶園主査】よろしいでしょうか。

ほかにございますでしょうか。

中川委員、お願いいたします。

【中川委員】中川でございます。貴重なお話ありがとうございました。2点ございまして、1点目は、生成AIのサービスによっては、生成されたコンテンツを利用するときに、AIによって生成されたものだということの明示を求めるものがあると思いますが、御紹介いただきましたようにオフィスソフトに組み入れて利用されることになれば、世の中で生成AIを活用したコンテンツというのがもっとたくさん爆発的に出てくるのではないかというイメージがありまして、マイクロソフトさんとしては、生成AIによって生成されたものだということの表示についてどのようなお考えをお持ちかということを伺えればというのが1点目でございます。

2点目は、各国でそれぞれ著作権の法制がいろいろ違っていると思いますけれども、御案内いただいたようなマイクロソフトさんのCopilotみたいなサービスが典型だと思いますが、各国によって、提供するサービスの内容とか、そういったものについて法制度の観点から、法制度以外の文化もあるかもしれませんが、国によって違いを設けているような事情があるのかということが伺えればというのが2点目でございます。

以上です。

【日本マイクロソフト社(小島氏)】1点目は私のほうから回答させていただきます。まず、姿勢の部分で言いますと、諸外国の議論なども踏まえておりますので、基本的にAIというものがAI製であるということを示そうという方向で弊社はプロダクト開発を行っております。

ただ、オフィスに関して、現状はちょっとそこまで搭載ができていないというところでございまして、非常に注目の高い画像関係のところは先んじて実装するようにしているのですけれども、オフィスのところは現時点のところはそうなってないという状況でございます。

【日本マイクロソフト社(梶元氏)】各国の法制に基づいてサービスの内容が異なるかというご質問ですけれども、基本的に弊社のプロダクトはオンラインで御提供しているようなものが非常にメジャーでございまして、ですので、グローバルに統一的な規格で提供しているのが数で見ると圧倒的に多いです。もちろん適用ある法令に基づいてある国では残念ながらそのままでは提供できないけどというものについて、個別にアコモデーションを設けるケースはなくはないですけれども、非常に数が少ないと理解しております。

【中川委員】ありがとうございます。1点目について、ごめんなさい、私に誤解があるかもしれません。もう一度確認ですが、オフィスソフトを通じて生成されるコンテンツに例えばウォーターマークが入っているかとか、そういった御質問ではなく、生成AIを利用して例えばプレゼン資料を作って、それでプレゼンをするときに、このプレゼン資料はAIによって作りましたということをユーザーの側が明示しなきゃいけないとか、例えばそういったルールがあるかどうか。例えば生成AIのサービスによっては、生成AIによって生成したものですよということをユーザーが明示しなさいということを課しているようなものもあったりすると思うのですが、マイクロソフトさんとしてはそういったことについては何かルールがあるのかという御質問でございました。

【日本マイクロソフト社(小島氏)】失礼いたしました。その御質問ですと、先ほどCopilotということを御説明しましたが、実は動画の中でも英語で説明をしているのですけど、最終チェックはやはり人がやってくださいということを推奨しております。

ですので、ルールとしてかっちりしているものではないですけれども、AIがつくったものをそのまま出ていくということをそもそも推奨してなくて、あくまでCopilotで、人が最後チェックして、それの効率性を高めるためのツールだという位置づけに弊社としてはさせていただいております。

【中川委員】ありがとうございました。

【茶園主査】では、上野委員、お願いいたします。

【上野委員】本日はどうもありがとうございました。2点お伺いしたいと思います。

1つ目は、出力の適法性をどう担保するかという問題であります。先ほどのプレゼンテーションでも、出力の適法性を担保するための仕組みとしてメタプロンプトやフィルターに関するお話がありまして、非常に興味深く拝聴いたしました。ただ、Bingの場合ですと、先ほど御紹介ありましたように、ただの生成AIではなく、検索と組み合わせたようなものも含まれると認識しており、そこでは、ある回答が参照元ウェブサイトのURLなどとともに出力されることがあるように思います。この場合は、AI出力の中に、仮に元の著作物の創作的表現が軽微な形で残っていたとしても、日本の著作権法の47条の5が適用される可能性があるのではないのかと思っております。そこで、こうした検索型の生成AIの出力の適法性を確保するための規定として、47条の5も考えられるのかという点について、何か御知見がありましたらお聞きできればと思います。これが1点目です。

2点目は、日本にはこのような30条の4や47条の5といった規定がありますが、日本法が適用されないのであれば意味がないところです。先ほど中川先生とのやり取りとも関係するんですけれども、日本法の権利制限規定が適用されるというのは、基本的には、日本で情報解析のための利用行為をしているとか、あるいは、検索サービス等の提供のための利用行為をしていると評価できるときと考えられますので、たとえ外国企業であっても日本法が適用される余地はあるかと思います。このように、どのような場合に日本法が適用されるのか、そしてそれは同時に、どこの国で利用行為を行っていると評価できるのかという判断方法にも深く関係せざるを得ない問題でありまして、私自身も、また学界でも明確な答えがあるわけではないと思いますけれども、我々が検討すべき重要課題の1つかと思いますので、この点に関して御社の方で何か御議論といいますかお考えがございましたら御助言いただきたく思います。

【日本マイクロソフト社(梶元氏)】ありがとうございます。事業者である私どもがお答えするのが適切かというところからまず申し上げたいところではありますけども、2点目で御指摘をいただいた点については、もちろん日本法の適用に関しては、しかるべく当局や裁判所の判断というところに尽きるわけではございます。ただ、弊社の例えばAzure OpenAIというふうなプロダクトでも、お客様が追加学習を行っていただくことは可能な仕組みになっております。ですので、実際に我が国でそういったお客様が出てきたケースを想定しますと、より我が国の著作権法が適用される可能性は一般論としては増えると個人的な所感としてはありますので、もしそうであれば、そういった観点からも権利制限規定を設けていただいている意義は、十二分にあるのかなとも思います。

1点目ですけれども、これはケース・バイ・ケースの判断にもなり得ることから、私どものほうからどの規定がどうというふうなことは申し上げられないというご回答になってしまいますけれども、御指摘いただいたような規定の適用により適法であるという明確化をしていただけるのであれば、事業者にとってもありがたいと考えております。

【茶園主査】ほかにございますでしょうか。

よろしいでしょうか。

では、どうもありがとうございました。

御発表者は随時御退出いただいて結構です。どうもありがとうございました。

では、続きまして、議事(2)に入りたいと思います。議事(2)は、AIと著作権についてでございます。事務局に資料を準備していただいておりますので、まず説明をお願いいたします。

【小倉著作権課専門官】事務局でございます。資料3をお開きください。

資料3につきましては、生成AIに関しまして、クリエーターや著作権者の主な御意見をまとめたものになっております。資料、冒頭にありますように、本資料につきましては、生成AIについて様々な御意見があることから、審議の参考にするために、事務局にて関係者に聞き取りを行いまして意見の概略をまとめたものでございます。

聞き取りの中では、特に団体の方ですと、団体内でも様々な御意見があるので、現時点ではなかなか公開の場での説明が難しいという御意見、まだ生成AIが出てきて時間も間もなく、今後の発展次第では意見が変わり得ますというような御意見もありました。

本資料は、なるべく網羅的に意見をまとめまして、今から紹介するように列記してございますが、本資料はあくまで議論のための検討用の資料ということでございますので、この資料が何かしらの本委員会での結論につながるとか、そういったものではございません。

それでは、幾つか紹介したいと思います。私自身も聞き取りに参加しておりまして、全て紹介したいんですが、1個1個紹介してしまうと、ちょっと今日、会議、時間押しておりますので、少し割愛をさせていただきながら紹介します。

まず、1ページ目には、「AIと著作権についての検討について」、いただいた御意見でございます。

これにつきましては、クリエーター、著作権者との意見交換を尊重してほしいというもの、権利と保護の利用のバランスが必要だと。両輪があって初めて文化の振興と発展に寄与し得るんだといった御意見。

あとは、まず慎重に実態の把握が必要だと。認識が人によって異なるので、レベル合わせが必要。横のつながりがあるとよいといった御意見、また、クリエーターの中からも、どこまでが許諾なく利用できるのか、できないのかをなるべく具体的に示していただきたいという御意見、クリエーターが安心して生成AIを活用できる手法であるとか、法的知見、そういったものを明らかにしてほしいといった御意見、生成AIにより新た創作活動を行えるようになったクリエーターもいれば、新たにクリエーターになることができた者もいるという御意見もありました。

また、生成AIによる著作権侵害リスクという懸念を強く持っているという一方で、この懸念は必ずしもAI批判ではないということには気をつけてくださいという御意見もありました。

また、国際的な調和の確保の御議論とか、使わせる、使わせない、対価を得る、どこで得るか、こういった今後、今、検討を行っていますという声もありました。次のページに参ります。AIによる著作物の利用について議論することは、人の著作物の利用についても影響するというところで、検討に当たっては留意する必要があるといった御意見、著作権法は作風やデータ、声それ自体を保護するものではないが、これらの保護を求める声もあり、著作権法のみの議論にとどまるべきではないという御意見。著作権に限定するのではなく、守られるべきものは何なのかといった議論をする場が必要という御意見がありました。

以上が検討全般に対する御意見でございます。

この次は、「AI開発に係る著作物等の学習について」の意見でございます。

学習につきましては、1つ目の丸、年月をかけて苦労して生み出した唯一の作品を機械により学習され、簡単に同じようなものが生成されることへの懸念があるという御意見。

また、AI自体は社会にとって必要なものであり、学習を一律に禁止すべきではないという御意見。

3つ目、先ほどのヒアリングの際にも御議論がありましたが、学習段階の複製について、日本の著作権法は海外に比べると本当に緩いのか、明確にしていく必要があると。少なくともこの御意見をおっしゃっていた方は、正しく説明していくことが必要だということを主張されていました。

また、4つ目なんですが、本当に自分たちの著作物が学習されているのかどうかが疑問であるということ、5つ目、作品によってはデジタルデータそのものをネット上に掲載しないと公表すらできないものがあるという御意見がありました。こういった方々は、機械学習を防ぐ技術や手法が知りたいという御意見。また、技術やサービスにおいてこうした点を守る方策があれば安心できるという御意見もいただいております。

また、その次は、学習用データセットとして販売している場合の複製はNGだという御意見。

海賊版としてネットに掲載されてしまっているものが学習されることが懸念ですというお声。

また、営利のAI開発事業者が著作物を許諾なく学習する一方、権利者に対して対価がないことはフェアではないという御意見もいただいております。

また、海外では、集中管理事業者等による包括利用許諾によりライセンスを行い、対価を得ているケースがある。AI開発事業者に個々に許諾を求めることは難しいが、団体等による包括ライセンスを行っている場合は権利制限の対象にしないでほしいという考えもあるのではないかという御意見、AIによる学習にオプトアウトを認めてほしいという御意見、現行の権利制限規定を見直してほしいという御意見、科学技術や文明を止めることになってもAIを止めるべきとの声もあるといった御意見もいただいております。

次が「生成AIの利用について」の御意見です。

生成AIはツールにすぎず、生成物が海賊版となるのであれば取締りは現行法でも可能。論点を明確にすべきといった御意見、慎重な状況把握であるとか、偽情報やフェイクニュースや海賊版利用は生成AI自体の問題というよりは生成AIを使う人の問題であるといった御意見。

次のページに行きます。生成AIは人手不足の問題解決に資する可能性があるといった御意見、生成物をそのまま活用するのとは異なり、ストーリーや作品観のような創作は生成AI代では代替できないという御意見もあります。

また、生成AIを活用する際に、生成物が依拠している、類似しているかもしれないことについては不安を感じるというクリエーターのお声もございます。また、類似性の判断については、生成AIに限らず、従前のケースでもかなりの一致率を求められるケースがあって、なかなか厳しいと。類似性、依拠性の判断には不信感があるので、生成段階ではなく、学習段階で止めたいという意見もいただいております。

実演家につきまして、スタイルやカラーが模倣されることになる、これについて、著作権法上、必ずしも権利を主張できない場面もあるということで、肖像権、パブリシティー権の主張といった著作権以外の手段、こういったものもあるかもしれないとの御意見、また、追加学習で作為的な読み込みをしまして、特定の作家風の生成ができなくなるような抑制的な開発や運用を希望するといった声もいただいております。

次が「生成AIによる生成物の扱いについて」です。こちらについては、今は生成物への批判も多く、著作物性を認めるべきではないという意見が強いように感じるが、今後生成AIの活用が普及した場合、AI生成物が一律に著作権法により保護されないということは問題ではないかという御意見、個性的な作品、作家の思いが伝わる作品でないとそもそも売れないのではないかといった御意見もいただいております。

最後、「その他」でございます。生成AIを活用することで、新たに芸術活動に参入したり、従前の芸術分野を超えて新たに創作活動を広げる者もあり、文化の裾野が広がる可能性を感じるという御意見、生成AI案により自らの作品に類似したものが生成され公開されると、弁護士の相談であるとか先方への請求など、本来の創作活動が止まってしまうという御懸念、3つ目の、生成AIを用いていないクリエーターが生成AIを用いたのではないかといった疑いの目や根拠なき批判を受けるケースがあって、こういったものが創作の萎縮にならないのか心配しているという御意見です。

次は対価についてですが、一定程度ビジネスが発生していることが前提で、ビジネスがあれば対価の可能性があるとの御意見。一方で、補償金の仕組みはあり得ないのではないかという御意見。一円も回収できない可能性があるどころか、分配の問題が生じるということでした。

また、生成AI以外のサービスサイドとの対話も必要という御意見もありました。

生成AIにより仕事がなくなるという話について、仕事というより創作活動を続けられるようにすることが重要という御意見、あるいは、そもそも仕事が奪われるかどうか疑問という声もありました。AI生成物がクオリティーが低いのではないかという理由のようです。

また、その下ですが、AIのデータセットに関する透明性の確保、AI生成物であることの表示などルール作成が必要。類似性や依拠性の証明にも使えるといった御意見です。

次のページに参ります。生成AIの中には特定の著作物名、クリエーター名やプロンプトを入れてもそのまま出てこないようになっているものもあり、AI開発・サービス提供者側の抑制努力も感じられるという御意見、生成AIに関する発信は意図せぬ批判につながるなどリスクがあって、なかなか発信自体が難しいというお声もありました。

以上、少し駆け足の紹介で恐縮ですが、いただいた主な御意見です。これは8月までの御意見をしておりますが、文化庁著作権課では引き続き各種意見交換を行っておりますので、今後もこういったものを更新していく予定です。

ちなみに、今日紹介した中で、先ほどのヒアリングでの資料での御説明、あと前回の委員会で委員からも御指摘がありました、生成AIに使われるための学習について技術的に抑制できる方法がないのかとか、多くのクリエーターや権利者団体の気にされている声が多くありましたので、事務局で少々調べてまとめたものを参考資料3に御用意しております。こちらについて引き続き事務局から御紹介させていただきます。

【三輪著作権課調査官】それでは、参考資料の3、「AI学習に対する技術的な対応手段の一例について」と題しております資料を御覧ください。

本資料の趣旨でございますが、クリエーターや著作権者等の方々の中には自らの作品をAIに学習されてほしくないという声や想いがあるというところは文化庁でも把握をしているところでございます。

このように自らの著作物等がAI学習に用いられることを望まない場合は、技術的な対応手段によって当該学習に用いられる可能性を低減することも可能と考えられます。もっともこうした対応手段が必ずしも広く認識されているわけではないと思われますことから、本資料では、一例として、本日の議論でも度々話題に上っておりますが、技術的な対応手段の1つでありますウェブサイト内のrobots.txtの記載による方法につきまして、現況を事務局において収集しまして、暫定的に整理、紹介をさせていただくものでございます。

では、内容に入りまして、1ポツのところでございますが、AI学習に用いられる学習用データというものは、現状、インターネット上のウェブサイトに掲載されたデータを自動収集用のプログラム、クローラと呼ばれるものですけれども、こういったものを用いて広範に収集するという手法によって収集されている例が多いと考えられます。

このようなクローラによるデータの収集につきましては、ウェブサイト内のrobots.txtという名称のファイルにウェブサイトの管理者が記載した制限、ロボット排除規約と呼ばれるものですけれども、こちらを尊重して収集を行うという慣行が存在すると言えるかと思います。このrobots.txtにつきましては、特定のクローラについて収集を拒絶することですとか、収集を可能とするディレクトリを指定するといった設定が可能とされております。

AI学習のためのデータ収集とrobots.txtへの対応状況の例を見てみますと、2ポツのところでございますが、AI学習に用いられる学習用データの収集におきましても、robots.txt、これを尊重してクローラによる収集を行うという旨を表明されている例が多く見受けられます。

参考で事例を挙げておりますが、まず1つ目に非営利団体のCommon Crawlの事例を挙げております。この団体は、クローラによるデータの収集を行いまして、第三者に対してデータセットの提供を行っております。この団体が提供するデータセットというものは、OpenAI社の基盤モデル、GPT-3の開発に用いられたとされておりますほか、非営利団体であるLAIONが提供する画像及びテキストのデータセットでありますLAION-5B、こういったものの作成にも用いられたとされております。

次のページに参りまして、この団体におきましては、robots.txtのファイルにクローラ名としてCCBotを指定した下記の内容を追加するということで、この団体のクローラによるウェブサイトの収集というのは停止しますよという旨を団体のウェブサイト上で表明しておられます。

また、OpenAI社の事例も挙げております。同社は御案内のとおり、基盤モデルでありますGPT-4等の開発ですとか、対話型生成AIサービスでありますChatGPT、こういったもののサービス提供を行っておりますが、同社でも、同社のクローラでありますGPTBotでありますとか、ChatGPTにおいてプラグインによるウェブサイトへのアクセスを行いますChatGPT-Userというユーザーエージェント名で示されるクローラ、こういったものについてはrobots.txtの記載を尊重するという旨を表明しておられます。

3ポツでございますが、これらの現状を踏まえますと、著作権者等が自らの著作物等がAI学習に用いられること、これを望まない場合には、このような技術的手段による対応としまして、著作物等をインターネットにアップロードするに際しまして、robots.txtにおいて学習用データの収集に用いられるクローラによる収集を拒絶する、あるいは、そのように設定されたrobots.txtを有するウェブサイト、こちらに著作物等をアップロードする、そういったことでAI学習の対象となる可能性を低減させることができると考えられるところでございます。

参考資料3につきましては以上となります。

【茶園主査】どうもありがとうございました。

ただいまの説明を踏まえまして、本件に関する御意見等がございましたらお願いいたします。

何かございますか。

福井委員、お願いいたします。

【福井委員】発言が多くて大変恐縮なんですけれども、まずはこの間の御意見のおまとめとそれから今回の主にrobots.txtに関する調査、ありがとうございました。

第1回でも申し上げましたが、レッシグの4つのファクターを挙げるまでもなく、こうしたアーキテクチャというのは、何らかの政策上の目的、あるいは望ましい目的を達成する上では大変重要なものです。その意味で、技術の実際とか技術による可能性は、ここにとどまらず、ぜひ、さらに調査と、それから御報告を続けていただきたいと思います。ここが勝負どころじゃないかと私は感じています。

例えば今のrobots.txt以外にでも、データが学習されたということのひもづけは、一体どこまで技術的に可能なのか。あるいは収益の還元ですね。様々な課題を今日も御指摘いただきましたけれども、一体どういう形での実例があるのか。例えば、世界最大規模のフォトストックであるシャッターストックという企業があります。ゲッティに匹敵する4億点以上の画像を管理しライセンスしている存在ですけれども、彼らはAI学習にそうした画像を提供することによって、IDを活用して権利者への還元を既に行っていると発表しています。どういう仕組みで、一体どこまでこれが実効的に行えているのか。その学習は一体どのぐらい開発において役に立つものなのか。こういうことを知らないで我々が制度論を議論してもちょっと上滑ってしまうと思うんですね。

同様に、悪用ですね。こうしたAIによる悪用を懸念する声はネット上などを中心に根強いわけですけれども、一体現実にどこまで起きていて、それはどのぐらい困った事態で、今後、拡大していきそうなのかどうか、そういうことについても実例をぜひ御紹介いただければと思った次第です。

以上です。

【茶園主査】ほかにございますでしょうか。

𠮷田委員、お願いいたします。

【𠮷田委員】詳細なアンケート調査ならびに御答弁をいただきまして、ありがとうございます。私のほうで思ったのは、クリエーターの皆さんの中でもやはりいろいろな受け止め方があるのかなと感じました。今回の議論というのは、技術的な対応手段を取り入れるといった場合に、例えば、どのジャンルのクリエーターさんが、どのようなレベルでそれを警戒なさっているのか。中には前向きな方もいらっしゃったと思いますが、クリエーターのジャンルも多岐にわたるかと思いますので、そのターゲットがもう少しわかればいいなと思いました。今回はクリエーターだけとも限らずで、さきほどのオプトアウトの話にもありましたけれども、科学研究者という場合もあるかと思います。そういったターゲットをどのように捉えればいいかという議論ももう少し皆さんと一緒にできればいいかなと思いました。クリエイター側の温度差も含めてもう少し見えてきたらいいなあと思った次第です。

【茶園主査】ほかにございますでしょうか。

今村委員、お願いいたします。

【今村主査代理】ありがとうございます。最後の参考資料3のAI学習に対する技術的な対応手段の件なんですけれども、こういった対応をすれば、まだ学習されていないものについては学習されなくて済むのでしょうけれども、これはやはり既に学習されてしまった人はもうどうしようもならないということのような気もするんですが、その点、多分そうなんだと思いますけれども、ちょっと確認させていただきたい。分かればですね。

冒頭に、クリエーターや著作権者などの中には自らの作品をAIに学習されてほしくないという声や想いがある、とあります。特にインターネットに公開したものに関してですね。これはこの場で議論するようなことではなくて、実態調査をすると分かることかと思いますけれども、インターネットという場に機械学習という海賊みたいな人がわーっとやってきてどんどん学習していくと。本当はそんなために自分の作品をインターネットに公開したんじゃないのにってみんな思っているかもしれません。積極的に機械学習されたいと思っている人はあんまりいないと思います。でも、それはしようがないことなのかもしれません。AI発展のためには。

そういうことで、法と、さっきの福井先生の話じゃないですけれども、レッシグの分類でいえばアーキテクチャで何とかぎりぎり守りたいところは守るしかない。法は、既につくってしまったものがあり、動かし難いこともあるし、出来上がってしまったマーケットもありますから。ただ、先ほどの機械学習されてほしくないという想いというものをそういった技術によりできる限り守っていくということはできるんだと思うんですね。

そういうことも含めて、技術の発展には期待したいところですが、機械学習されてしまったら取り返しのつかないものなのか、自動的に学習されたものからのオプトアウトなんていうのはできないような気もするんですけど、そうした点、技術の状況が分かれば、事務局のほうから少しコメントいただければと思うんですけど。

【茶園主査】よろしいでしょうか。

【小倉著作権課専門官】今村先生、ありがとうございます。ちょっと文化庁の事務局でどこまで答えられるかという御質問ではありますが、我々何人かの研究者との意見交換もして、仕組みも勉強途上でありますが、全く同じような質問をした際に、私が聞いた研究者からは、一度読み込んだものからその特定のものだけの情報だけを取り出すとかなくすというのはなかなか難しいのではといったようなコメントをされておりました。

一度読み込まれたものがずっと複製行為が行われているのかどうかというところで、著作権の議論とどう関係してくるのかというところは難しいところでございますが、一応そういったやり取りしたときにはなかなか難しいんじゃないかという御意見ありました。

今回、資料で、そもそもの、今後、学習されることを防ぐ手法といったものもちょっと一例として紹介しておりますが、このようなところはなるべく我々も、先ほど福井委員からもいただきましたように、クリエーターの御懸念とか心配、権利者の不安、こういったところを解消するために、こういった場も、また先生方のお知恵、御意見を広く普及していければなと思っております。

以上でございます。

【今村主査代理】どうもありがとうございました。

【茶園主査】ほかにございますでしょうか。

中川委員、お願いいたします。

【中川委員】中川でございます。先ほどからお話が出ていますように、私もいろんな技術的な可能性を追求して少しでもよい制度にしていくということは全く異存がなくて、こういった手法も検討していくということで賛成でございます。

その上で、あくまで我が国のこれまでの理解では、私の個人的な理解も入っているかもしれませんが、学習は広く認めるんだけれども、その後に生成されたものについては類似性がある場合には一定の場合に侵害にするという基本的な発想があったと思います。

そういった事情も踏まえると、こういった手法はあるとしても、権利者がこういった手法を採用していないことをもって学習とか生成について許容していたのではないかというような見られ方をするということは、これはあってはいけないように私個人としては思います。今後制度として取り込んだ場合は別かもしれませんけども、こういう技術的な手段が現状あることをもって著作者の意図をいろいろ推認するということは、少なくとも現状では望ましくない状況なのかなと思っております。その点のコメントでございます。

【茶園主査】ありがとうございます。

ほかにございますでしょうか。

よろしいでしょうか。

では、どうもありがとうございました。

それでは、その他、全体を通じて何かございますでしょうか。

よろしいでしょうか。

では、どうもありがとうございました。

それでは、本日の議事は全て終了ということになりましたので、ほかに別段ございませんようでしたら本日はここまでとしたいと思っております。

最後に、事務局から連絡事項がございましたら、お願いいたします。

【小倉著作権課専門官】事務局でございます。本日はありがとうございました。次回以降の法制度小委員会は、改めて事務局にて調整の上、日程をお知らせいたします。どうぞよろしくお願いいたします。

以上でございます。

【茶園主査】それでは、以上をもちまして、文化審議会著作権分科会法制度小委員会(第2回)を終了させていただきます。

本日はどうもありがとうございました。

―― 了 ――

Adobe Reader(アドビリーダー)ダウンロード:別ウィンドウで開きます

PDF形式を御覧いただくためには、Adobe Readerが必要となります。
お持ちでない方は、こちらからダウンロードしてください。

ページの先頭に移動