第9章 現在のAIと著作権議論

 さて、昨今AIの学習及び生成に関して、著作権侵害その他の観点からいろいろネット上でも議論がされているようですが、実際の動きとしてどのようなものがあるかを追ってみました。


【AI学習におけるアメリカのフェアユース議論】

 ご存じの方も多いと思いますが、現在最も多く使われている生成AIは主にアメリカで製造されたものが一番多く、そしてそのAIの学習はフェアユースに該当するとして、現在も学習行為が行われています。

 前項で述べた通り、少なくとも当初は『① 利用の目的と性格』が、当時は変容的な利用、つまりデータをそのまま使うわけではなく、データを統計的に集めて新たな価値を生み出すものであること。

 そして『④ 著作物の潜在的利用又は価値に対する利用の及ぼす影響』が、学習行為そのものはデータの抄録を作るようなイメージであり、元の著作物の販売市場やライセンス市場に直接競合しないと考えられていました。


 意味が分からない方は前項を再度ご覧ください。初期のAIが登場したころ(2016年のレンブラントプロジェクトの頃)は、まだ現在の様な大規模言語モデルがなく、AIはあくまで学術的な目的の傾向が強く、この判断が正しいとされました。


【変わってきた『AI学習』による影響】

 当初、AIの学習に著作物が使われた場合の効果は限定的でした。

 そもそも研究開発のために使われるので、AIのアウトプットを利用できる人間が限られており、市場への影響はほとんど無視できる程度だったからでしょう。


 しかし、2022年末にChatGPTが登場し、一般人がAIを利用できるようになりました。

 そしてそこから、『第4次AIブーム』と呼べるほど、おそらく過去に例を見ないほどにAIが社会に浸透していくようになりました。

 実際、インターネットを日常的に利用する人で、AIを全く使ったことがないという人は日を追うごとに減っていると思います。

 特に社会人であれば、業務改善においてAIは必須のツールといってもいいかもしれません。

 ちなみに私も利用しています。

 私の場合、法律的なことを探す必要があるケースが多いのですが、その場合はAIはとても頼りになります。


 そして、AI(特に画像や動画、文章を作る能力を持つ生成AI)は、事実上学習した内容からそれに類似した(あるいは酷似した)コンテンツを生成する能力があることは、今更言うまでもないでしょう。

 前項でも話題にしたSora2は、実際、ドラゴンボールの悟空にしか見えないキャラクターが動く動画を容易に生成してしまうようです。

 いくらアメリカのフェアユースでも、これは『① 利用の目的と性格』における変容性や、『④ 著作物の潜在的利用又は価値に対する利用の及ぼす影響』において、フェアユースに肯定的である判断をするのは、さすがに難しくなっているのではないでしょうか。


 そして実際、この日本のコンテンツに限らず、すでに多くの訴訟がアメリカでは起きています。


【アメリカで起きているAI訴訟】

 2025年10月時点で、米国内だけでも数十件の訴訟が起きているらしいですが、そのほとんどは係争中です。

 和解したものもあるようですが。


 裁判一つ一つについて記載していたら、それこそ紙面がいくらあっても足りませんし、最新の裁判記録を英語で読まないと厳しいのでそこは割愛しますが、まだ多くの裁判は結論が出ていません。


 そしてその争点は基本的に『AIの学習効果がフェアユースに該当するか』というところに集約されつつあります。

 つまり、『著作者の許諾を得ずにAIが学習することが合法であるかどうか』ということです。

 ただ、一部では和解が成立しているように、AI企業側がリスクを避けて和解金を支払うケースもあるようです。


 現在の裁判の多くは、まだ証拠開示という段階で、また、結果については流動的であるため最高裁までもつれ込む可能性が高く、最終的な結論が出るのは来年、あるいは再来年になる可能性もありそうです。


 ただ同時に、どれかの裁判が最高裁まで行って判例が示された場合、それはそれ以外の裁判の決着にも強い影響を与える可能性はあるでしょう。


【日本での訴訟】 

 日本では実は騒ぎになってはいるものの、訴訟は起きていません(海外を訴えた裁判はあるのでそちらについては後述します)

 これには、単純な問題として日本国内のAIサービスがあまり多くないことも理由の一つでしょう。

 ただ、国内のあるAIイラストサービスが、特定のクリエイターの作風に過度に似せたものを出力できるという事実が発覚した際、SNSなどで話題になりました。

 これについては訴訟まではなりませんでしたが、AI運営側が出力に対する防止措置をとったようです。


 また、直近で読売新聞社、朝日新聞社、日本経済新聞社の三社が、アメリカのあるAI(Perplexity AI)を訴えた裁判が、ごく最近起きたばかりです。

 この裁判の特徴は訴えられた被告はアメリカの企業ではあるのですが、問題になっているのは日本で運営されてるウェブサイト(有料記事全文をAIに学習させ、さらにそのまま出力させた)なので、日本国内で不正行為が行われたという判定になり、日本国内(東京地裁)で提訴されたようです(著作権侵害は国際的に、『侵害が行われた場所』の法律で裁くことを基本としている)。この裁判について書き始めるとそれだけですごいことになるので、気になる方は調べてみてください。国際著作権侵害の複雑さの縮図みたいなところもあります。

 いずれにせよ、この裁判は法廷で初めてAIの学習が著作権法第30条の4について議論されることになる見込みなので、かなり注目を集めています。


 なお、これはおまけですが、Sora2などが日本のコンテンツの情報を学習していることを、日本で裁判を起こして著作権侵害を問うことは難しいです。

 これについても本当にいろいろ複雑な条件があるので、詳しい説明をすると結構大変なため、申し訳ありませんが本項では割愛します(著作権侵害の適用地域の問題であり、本エッセイの主旨からややはずれるのでご容赦ください)


【日本企業の国外での訴訟】

 これに関して一つあるのが、日本の円谷プロが、中国の生成AIの会社に対して起こした裁判です。

 ちなみにこの結果は、円谷プロが勝訴し、当該AI運営会社は賠償金支払い及び円谷プロのコンテンツ(ウルトラマン)に類似した生成をできないように制御することを義務付けられました。

 この裁判の画期的なところは、AIの運営会社がAIが生成された画像に対して、それが著作権侵害になる場合は責任を取らされる、ということがあり得ると示したことにあります。

 これは、前項で示した中国ならではの事情とはいえるでしょう。

 中国は生成物に対しても強い統制を求めており、その論理に照らして、たとえ中国国内のIPでなくとも、違法なものを正しく裁くという姿勢を示したことになります。


 ただ、裏を返せば、生成物が著作権侵害をしないようにあれだけ統制されているにも関わらずこのような事件が起きたことは、中国企業は日本のIPホルダーが中国で提訴するリスクを低く見積もっていたという見方もできるかもしれません。

 実際、海外訴訟の費用は相当ですからね。


【カリフォルニアで成立したSB53】

 さて、アメリカの話に戻って。

 カリフォルニアで、まさに先月末、画期的な州法が成立しました。

 正式名称は『透明性フロンティアAI法/Transparency in Frontier Artificial Intelligence Act)』で、報道などでは『SB53』とも略称されることがあります。SBとは、上院で提出された法案(Senate Bill)の略です。

 アメリカ全体を縛る連邦法ではなく、カリフォルニア州だけで有効な州法ではありますが、その内容、および成立過程は非常に重要です。


 この法律の骨子は以下。

 ◆大規模AI開発者に安全プロトコルの公開

 ◆リスク評価の透明化

 ◆重大インシデント(障害)の報告

 ◆2030年頃からAIに対する第三者監査を義務化する方針

 ◆AIに関する内部告発者保護制度の強化


 これは、まずOpenAIの現・元社員の内部告発がきっかけとされています。

 OpenAIがいわば社会的な倫理を逸脱してAIの開発に躍起になってること、そして最大の問題として、OpenAIの社員が公的利益のために内部告発することを阻害する契約させられていたことが判明しました。これが去年の4月ごろの話。

 この後、OpenAIのCEOは謝罪し、当該条項を契約(労使契約)から削除され、その後の7月、実際に内部告発が行われます。

 その結果を受けて提案されたのが、この法案でした(提出されたのは今年の5月)。


 ちなみに当初はSB1047という、より強い規制を持つ法案が議会に提出、可決まで至りましたが、知事が拒否権を行使したため、成立には至りませんでした。

 SB53はその法律を受け継ぎ、より現実的・妥当性を意識した修正版として策定され、2025年9月に知事も署名し、成立した法律です。


 この法律の画期的なところは、AI開発における違法行為以外にも、重大なリスクの可能性(50人以上の死者、または100億ドル以上の損害が発生する事件を引き起こす可能性)がAIの出力によって発生しうる可能性があった場合、それらも内部告発することができる点です。

 つまり、『違法な状態』だけではなく『リスク』も監視するようになりました。

 実際、OpenAIなどの主要企業が運用する『最も厳格な安全基準を適用したモデル』であっても、生物兵器や化学兵器の製造方法など、危険な情報を引き出すことに成功したそうです。これはつまり、致命的な事件を起こすリスクをAIが内包しているということを意味します。


 そして前述した通り、AIの学習データに対する透明性を義務付け、必要に応じて学習データの内容を提出する必要があるとされています。

 これにより、完全ブラックボックス化したAIの内容が、必要に応じてきっちり審議され、その合法・違法の判定が行われることになるものです。


 ちなみにこれより以前に、ニューヨーク州でもAIに関する法案がいくつか提案され、そのうちの一つに『AIの出力結果に対して、AI事業者に責任を取らせる』という側面を持つものがありました。

 具体的には、AIが人種、性別、年齢などに基づく差別的な結果を出力した場合、その責任をAIシステムを開発・提供した事業者に負わせることを目的としていたそうですが、これがAI開発を委縮させるとして、結局この法律は廃案になっています。

 ただこれ、見てのとおり現在中国が行っている統制に近い。

 この辺りは、本当に国の差が見て取れます。


 対して『SB53』は重大な事故(インシデント)が起きた場合にその報告を義務付けるまでで、その責任を取るようにはなっていません。

 そのため、ある程度の妥協が働き成立したという側面もあるようです。


 ちなみにこの法律、OpenAIその他、AI事業者は成立しないように必死にロビー活動をしていたという話があります。

 理由の一つは、これがカリフォルニア州法であり、つまりカリフォルニアでだけ適用される法律となることを挙げています。

 つまり、他の地域とカリフォルニアでいちいち対応を変えなければならず、そのためのコストが大きいので、こういう法律が作られるなら連邦法であるべきだ、ということでした。


 それはその通りですが、一度このように法律が成立することで、他の地域でも同じような議論が発生することを避けたかったのではないかという気がします。

 そして各州でその議論が起きれば、連邦法として制定される流れになるわけで、一番回避したかったのはそれではないでしょうか。


 ちなみにこれより前、2023年10月に当時のバイデン大統領が、AIに関する大統領令を発令していました(今回調べて知りました)

 これは、AIのリスクとそれに対しての開発のロードマップを示した、やや漠然としたものですが、このうちの、とくに大規模AIの安全リスクに対して、より強い法的義務を課したのが、SB53といえるでしょう。


 いずれにせよ成立したSB53の考え方、さらにはバイデン大統領の発令していた大統領令を踏襲した形で、今後アメリカのAI開発は安全性や人権などを考慮したバランスを重視した制約をかけつつ、発達の道を模索していくことになると思います。


【OpenAI社の方針転換】

 2025年10月、OpenAI社がSoraの運用について、大きな方針転換の準備があることを明かしました。

 これまでの同社の方針は『コンテンツの利用をされたくない人は申請してください』という、いわゆる『オプトアウト』(自身が拒絶するという意味)でコンテンツの出力制御を調整していました。

 しかしこれを、真逆の『オプトイン』(自身が許諾する)に変更する用意があるとのことです。

 https://techcrunch.com/2025/10/04/sam-altman-says-sora-will-add-granular-opt-in-copyright-controls/

 ただしそうなる時期については明示されていません。

 また、許諾することに対するインセンティブなどについても発表はないので、このままだと全く許可がない状態となりかねない。

 というか、切り替わるときにどうするのかとか(いきなりほとんど出力が出来なくなる事態もあり得る)問題は山積みです。

 ただそれでも、最大手のOpenAIがこのような対応をとることは、他の事業者にも意味があることでしょう。

 もっともこの発表に関しては、強烈に批判されているその批判の矛先を逸らすためのポーズという可能性も、まだ否定できませんが。


【最新の日本の著作権議論】

 現時点で最新のものは、文化庁が二〇二五年三月に公開した『AI と著作権に関する考え方について』という文書。ただしこれには法的拘束力はありません。

 以下のサイトの二段目以下にリンクがあります。

 文字だけの文書は読むのに時間がかかる上に理解しづらいので、【概要】と書かれている文書のほうがおすすめです(こちらは同年4月作成)

 https://www.bunka.go.jp/seisaku/chosakuken/aiandcopyright.html

 あくまで文化庁内の議論の方向性を示すもので、いずれは法整備に繋がっていくと思いますが。


 もっとも、ここに書いてある『学習段階』と『生成段階』の考え方は、従来とそう変わっていません。

 しいて言えば、著作権法第30条の4の権利制限についてより具体的に書いているくらいでしょうか。


 あとは、生成時のAI事業者側の責任についても少し言及しています。

 具体的な例として、以下のような場合は事業者側にも責任を負わせる可能性があるそうです。

 ① ある特定の生成AIを用いた場合に、侵害物が高頻度で生成されること

 ② 事業者が、生成AIの開発・提供に当たり、当該生成AIが既存の著作物の類似物を生成する蓋然性の高さを認識しているにもかかわらず、当該類似物の生成を抑止する措置を取っていないこと


 要するに、著作権侵害を起こしやすい奴はダメだよ、というわけですね。

 実際、日本でもこれで裁判にまではならずともAI事業者側が対応した例があるのは、前述したとおりです。

 逆に、そういう著作権侵害の恐れのある生成物を作りづらいような対策をしていれば、責任を負う可能性は低いともしています。


 実際この考え方は、工業製品ではよくある考えです。

 いわば、『重大事故が起きる可能性を減らす』製品を作るのは、作り手側の義務でしょう。例えば小さなところでは、ライター。

 あれは、うっかり子供が動かせないように、安全装置(チャイルドレジスタンス機能)を付けることが義務になっています。

 ただ、生成AIに関しては、それが現状定義されていない。

 まあそもそもで著作権の扱いが難しいのはありますからね。


 正直この辺りは感情的な部分も小さくないでしょう。

 例えば、ある人があるキャラクターのファンで、そのキャラクターのイラストを必死に描いたとします。

 ただしトレースなどではなく、キャラクターの特徴をつかみ、作成者ならではの創作性を発揮してオリジナルの服装にして。

 そしてそれをSNSで公開する。

 これは果たして著作権の侵害になるのかどうか。

 厳密にいうなら著作権の複製権または翻案権の侵害になってしまうでしょう。

 これは、二次創作が厳密には著作権侵害であることと同じです。

 ただ知ってのとおり、これらはファンアートとしてたいていはお目こぼされる案件でしょう。


 ですが、それをAIで作ったら。

 AIはツールではありますが、それでもこれを二次創作として大目に見るということに納得する人は、おそらくあまり多くはないと思います。

 というか、私も許容しません。


 おそらくその違いは、結局描いた人間が払った努力と作品に対する敬意の差だと思います。AI使ったからと言って作品にリスペクトがないと断言はできませんが、AIの昨今の扱いだと、ないと思う人が多そうです。


 話を戻しますが、現状文化庁もまだどう対応すべきかは模索中というところです。

 おそらくアメリカの裁判の様子も見て、対応を今後考えていくのでしょう。

 ただ、AIを含めたIT技術の進歩は文字通り日進月歩。

 対応が後手に回らないように、柔軟性のある法解釈が可能な対応は、早めにやるべきではないかな、とは思うのですが。

  • Xで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る