生成AIと著作権の問題点とは?
生成AIとは、インターネットなどから得られた膨大なデータを学習し、新たなコンテンツを生成するAI技術の総称です。人工知能の発展、インターネットから膨大なデータを取得できるようになったことなどを背景に、2020年代から一般人でも気軽に扱えるようになるほど、身近な存在となったテクノロジーです。ChatGPTやGeminiをはじめとした、多種多様な生成AIを利用したサービスが開発されており、画像や文章、音声などさまざまなものが生成されています。
生成AIの著作権問題を理解するカギは、「①入力(学習)」と「②出力(利用)」の2場面に分けて考えることです。
AIが情報を学ぶ段階と、私たちが生成物を使う段階とでは、適用される法律のルールが全く異なります。この違いを理解することが、リスクを把握する第一歩です。
問題の核心:「学習」と「利用」の2つのフェーズ
まず、2つの段階がそれぞれ何を指すのかを解説します。一つは「入力(学習)段階」です。AIが賢くなるために、インターネット上にある膨大な文章や画像などのデータ(著作物を含む)を読み込み、その特徴やパターンを学ぶ段階を指しています。
もう一つが「出力(生成・利用)段階」です。私たちがAIに「〇〇を描いて」や「〇〇についてまとめて」と指示を出し、AIが作り出したコンテンツ(生成物)を受け取り、ブログ記事や資料などに利用する段階を指します。では、それぞれの段階でどのような法律上のルールが適用されるのでしょうか。
既存の著作物を「入力(学習)」する際のリスク
まず、AIが著作物を学習データとして「入力」する段階です。結論から言うと、日本の著作権法では、この行為は原則として著作権者の許可なく行うことが認められています。AIの学習は、作品を直接楽しむ「鑑賞」が目的ではないため、法律上の例外規定が適用されるためです(著作権法第30条の4)。
ただし、無制限に許されるわけではなく、「著作権者の利益を不当に害する場合」には例外的に違法となる可能性があります。例えば、AIの学習に使うという名目で、有料で販売されているイラストレーターの作品集を大量に無断で丸ごとコピーし、データベース化するようなケースが該当します。
AIが作った生成物を「出力(利用)」する際のリスク
次に、AIが作ったものを私たちが「出力(利用)」する段階です。ここでのルールは学習時とは全く異なり、私たちが普段、他人の著作物を利用する際と同じ基準で判断されます。
AIが生成したものであっても、それが既存の特定の著作物と酷似しており(類似性)、その著作物を元に作られた(依拠性)と判断されれば、著作権侵害になる可能性があります。
そして最も重要なのは、万が一著作権侵害が認められた場合、その責任を負うのはAIツールの提供会社ではなく、基本的に「生成物を利用したユーザー自身」であるという事実です。たとえ意図していなかったとしても、「知らなかった」では済まされないと考えるべきでしょう。
AIの「学習」はなぜ原則OK?文化庁の見解を解説
ここでは、その根拠となる法律と、参考になる文化庁の公式見解を詳しく見ていきます。この点を正確に理解しておくと、自社で利用するAIツールが安全かどうかを見極めやすくなるでしょう。
著作権法第30条の4が技術発展を後押し
AI開発における著作物の利用を事実上可能にしているのが、著作権法第30条の4という条文です。この条文は、DX(デジタルトランスフォーメーション)時代の技術発展を後押しするために設けられました。要点を簡単にまとめると以下の通りです。
- 著作物に表現された思想又は感情の享受(=見て、聞いて、読んで楽しむこと)を目的としない場合は、原則として、著作権者の許可なく、あらゆる方法で著作物を利用することができる。
AIの学習は、人間のように作品を「楽しむ」ためではなく、情報解析やパターンの抽出を目的としています。そのため、この条文の適用を受け、原則として著作権者の許可なくインターネット上の膨大なデータを学習に利用できる仕組みです。
学習がNGになる例外ケースは?
ただし、この第30条の4は万能ではなく、「著作権者の利益を不当に害する場合」は例外とする但し書きがあります。
文化庁の見解によると、例えば有料の学習用データベースを無断でコピーしたり、海賊版サイトと知りながらデータを収集して学習に利用したりするケースが、この例外に該当します。つまり、本来クリエイターが得られるはずの利益を不当に奪うような、悪質な利用は認められません。
企業が注意すべき学習データの選び方
企業がAIツールを選ぶ際は、学習データの安全性が重要です。まず、AIの生成物による著作権リスクを避けるため、開発元が「権利的にクリーンなデータを使っている」と公表しているかを確認しましょう。
次に、情報漏洩リスクを防ぐため、自社の情報を入力する場合は特に注意が必要です。利用規約を読み、入力データがAIの再学習に使われない設定(オプトアウト)が可能か、必ず確認してください。
【最重要】AI生成物の利用で著作権侵害となるケースとは?
ビジネスで著作権が問題になるのは、主にAI生成物を「利用」する場面です。著作権侵害にあたるかどうかを判断するうえで、法律上3つの重要なポイントがあります。
それぞれのポイントについて詳しく見ていきましょう。
要件1:生成物が既存の著作物と「似ている」か(類似性)
一つ目の要件は、AI生成物が既存の著作物と似ているか(類似性)です。重要なのは、アイデアや作風が似ているだけでは侵害にならない点です。例えば「魔法少女が活躍する」という設定はアイデアですが、「特定のキャラクターの服装」といった具体的な創作的表現は保護されます。
裁判では、元の作品の「本質的な特徴」が直接感じ取れるほど表現が酷似している場合に、類似性ありと判断される傾向にあります。
要件2:既存の著作物を「参考に作られた」か(依拠性)
二つ目の要件は、既存の著作物を元ネタにして作られたか(依拠性)です。偶然の一致であれば著作権侵害にはなりませんが、ここにAI特有の落とし穴があります。利用者が元ネタを知らなくても、AIが学習データとしてその著作物を読み込んでいれば「依拠性あり」と判断されるリスクがあるのです。
そうなった場合、全くの偶然であると証明するのは非常に難しいかもしれません。
要件3:私的利用など「権利が制限される場合」に当たらない
たとえ「類似性」と「依拠性」があっても、その利用方法が法律で許された範囲内であれば著作権侵害にはなりません。その代表例が、個人的または家庭内で利用する場合の「私的使用」です。例えば、生成した画像を個人のスマートフォンの壁紙に設定するような使い方は、問題になる可能性は低いでしょう。
しかし、生成したイラストを商品のパッケージに使ったり、文章を自社のWebサイトに掲載したりするビジネスでの利用は、私的利用の範囲を完全に超えるため注意が必要です。
AIが生成したコンテンツの著作権は誰のもの?
著作権侵害のリスクを乗り越えて、無事にコンテンツを生成できたとしましょう。では、その生成物の「著作権」は、一体誰のものになるのでしょうか。
自分が作ったのだから当然自分のもの、とはならないのがAIならではのルールです。
原則:AIが自律的に生成したものに著作権はない
まず大原則として、AIが自律的に生成しただけのものに著作権は発生しない、と覚えておきましょう。日本の著作権法が保護の対象とするのは、「人間の」思想または感情を創作的に表現した「著作物」だからです。法律上の「人間」ではないAIが自動的に作り出したものは、著作物の定義から外れ、保護の対象とはなりません。
つまり、単純な指示でAIが出力した文章や画像は、特定の権利者がいない「パブリックドメイン(社会全体の公共財産)」に近い状態にあると解釈できます。
例外:「人間の創作的寄与」があれば著作物になる
ただし、AIを単なる「道具」として利用し、そこに人間による創造的な貢献が認められる場合、例外的にその生成物が「人間の著作物」として保護される可能性があります。
人間による創造的な貢献を、法律用語で「創作的寄与(そうさくてききよ)」と呼びます。文化庁の見解でも、人間に「創作意図」があり、創作の過程で具体的な指示を出すといった「創作的寄与」が認められれば、その人が著作者になるとされています。
では、どのような行為が「創作的寄与」と認められやすいのでしょうか。
結論としては、AIを単なる自動生成ツールとしてではなく、自分の表現を実現するための「高度な筆や絵の具」として使いこなせているかどうかが鍵となります。
創作的寄与が認められにくい例
「かわいい猫のイラスト」のような単純で短い指示で生成を終え、AIの生成物をそのまま利用するようなケースでは、認められにくいでしょう。そうした指示だけでは、人間の創造的な意図が十分に反映されているとは言い難いためです。
創作的寄与が認められやすい例
一方で、「創作的寄与」が認められやすい例としては以下のようなものがあります。
例えば、「夕暮れの窓辺で、毛玉のボールで遊ぶ三毛猫。ゴッホ風の力強いタッチで」のようにプロンプトを具体的に工夫したり、生成した画像に「もっと猫の尻尾を長くして」「背景の色を緑に変えて」といった具体的な修正指示を何度も繰り返したりする行為が挙げられます。
さらに、AIが生成したイラストを基に、人間がPhotoshopなどの別ツールで大幅に加筆・修正を加えて一つの作品に仕上げるような場合も、創作的寄与が認められやすくなるでしょう。
実際にあった著作権トラブルの事例
法律のルールが分かっても、「実際にどんなケースが問題になるの?」とイメージが湧きにくいかもしれません。
ここからは、国内外で実際に起きた著作権侵害トラブルの事例を見ていきましょう。
国内の事例
日本ではまだ、生成AIの著作権侵害に関する確定した判例は出ていません(2025年7月時点)。しかし、著作権侵害が疑われ、社会的に大きな問題となったケースはすでに発生しています。
海上保安庁のAIイラスト問題
2024年、海上保安庁が公開したパンフレットに、AIで生成されたと思われるイラストが使用されました。しかし、そのイラストが特定のイラストレーターの「画風」に酷似しているとSNS上で大きな批判を浴び、結果としてパンフレットの公開が中止される事態に発展しました。
法的に著作権侵害と認定されたわけではありませんが、企業の評判を大きく損なうリスクがあることを示す事例と言えるでしょう。
AIグラビア写真集の販売停止問題
実在の人物の画像を無断で学習させたとされるAIを使い、生成されたアイドルの写真集が出版され、大きな問題となりました。
このケースは著作権だけでなく、モデルとなった人物の肖像権やパブリシティ権を侵害する可能性が極めて高く、多くの書店が販売を見合わせる事態となりました。
海外の事例:開発企業への集団訴訟
AI開発の最前線である米国では、AI開発企業に対する集団訴訟が相次いでいます。大手企業などが、自社のコンテンツを無断で学習データとして利用されたと主張しているのです。
ニューヨーク・タイムズ vs OpenAI&Microsoft
大手新聞社ニューヨーク・タイムズが、「自社の記事を数百万件も無断で学習データに利用され、著作権を侵害された」として、ChatGPTの開発元であるOpenAI社などを提訴しました。
Getty Images(ゲッティイメージズ) vs Stability AI
世界最大級のストックフォトサービスであるGetty Images社が、画像生成AI「Stable Diffusion」の開発元を提訴。「自社が権利を持つ1200万点以上の画像を、許可なく学習データに利用された」と主張しています。
アーティストたちによる集団訴訟
企業だけでなく、個人のアーティストたちも、自らの作品がAIに無断で学習されていると声を上げています。
複数のアーティストは、「自分たちの画風を模倣した画像を生成できるのは、作品を無断で学習したからだ」と主張し、画像生成AIサービスを提供する企業を相手取って集団訴訟を起こしました。
著作権を侵害した場合にとりうる法的措置
著作物を許諾なく利用された場合著作権者は以下のような法的措置を利用者に対してとることができます。
法的措置の例について以下に説明します。
- 損害賠償請求
- 差止請求
- 名誉回復等の措置請求
差止請求
該当する作品の利用の差し止めを請求する措置です。また、侵害しようとしている者に対して予防を請求することもできます(著作権法112条)。
損害賠償請求
著作権侵害によって発生した損害を賠償請求できます。損害額の計算式は事案によって異なりますが、著作権法においては以下の3つの算定方法が定められています。
- 侵害者が譲渡した複製物の数量×著作権者が本来得られたはずの単位数量当たりの利益の額(著作権法114条1項)
- 侵害者が侵害行為によって受けた利益の額(著作権法114条2項)
- 著作権者が権利を行使することによって得られるはずだった金銭の額(著作権法114条3項)
名誉回復等の措置請求
著作権の侵害により、多くの人に作品が著作権侵害者の著作物であると誤解されて伝わってしまった場合等、著作権者は侵害者に対して名誉回復するための措置請求ができます。名誉回復等の措置の請求内容は個別の事情に応じて異なりますが、「新聞やホームページなど、名誉毀損が発生した媒体で謝罪広告を掲載する」請求が多いです。
企業が実践すべき生成AIの著作権対策
これまで見てきたように、生成AIの利用には、法的なリスクだけでなく、企業の評判を損なうリスクも伴います。こうした事例を前にすると、「生成AIの利用は危険そうだ」「自社での導入は難しい」と感じてしまうかもしれません。
しかし、ご安心ください。これらのリスクは、きちんと対策することで十分に管理できます。
対策1:社内ルールやガイドラインを作成する
社内で多くの従業員が生成AIを使用する場合、会社全体で生成AIに関する法的リスクに備えるためにも、社内ルールやガイドラインを作成することをおすすめします。ルールがガイドラインを作成する際は、以下の項目を記載する必要があります。
- 作成した目的
- 生成AIの概要
- 利用方法
- 生成時の注意事項
- 生成AIの法的事項
生成AI利用に関するガイドライン等の作成時には、著作権だけでなく、商標権や意匠権などに関する法的事項についても記載することが一般的です。
テンプレートを配布!ChatGPTの利用に関する社内ルールと注意点
対策2:従業員への定期的なリテラシー教育を実施する
ガイドラインの整備やツールの導入は重要ですが、それだけでは十分ではありません。最終的にAIを操作する従業員の知識や意識が伴って、初めて安全な利用が実現します。
従業員が生成AIを活用して業務を実施する場合に法的トラブルに発展しないよう、生成AIの利用における注意点を研修などを通じて社員教育することをおすすめします。生成AIにおける著作権侵害に関するルールは、文化庁から資料が公開されているため、活用することをお勧めします。
対策3:生成物は「たたき台」として必ず人間の手で編集・確認する
AIによる生成物を、完成品としてそのまま利用するのは絶対に避けましょう。AIの役割は、あくまで業務を効率化するための「たたき台」作りだと考えてください。
最終的な成果物として利用する前には、事実関係(ファクトチェック)や権利侵害の観点で、必ず人間が確認・編集する手順を徹底しましょう。
対策4:プロンプトを工夫し侵害リスクのある類似要素を排除する
AIから意図しない成果物が出てくるリスクは、AIへの指示、すなわち「プロンプト」の工夫である程度コントロールできます。例えば、「〇〇(作家名)風で」といった特定の作品を指定する指示は、安易ですが著作権侵害のリスクを高める危険な使い方といえます。
大切なのは、特定の作家名に頼るのではなく、表現したい雰囲気を具体的な言葉にしていくことです。「淡い水彩画のようなタッチで」「未来的なメタリックな質感にして」というように、「要素」に分解してAIに指示しましょう。
対策5:著作権侵害リスクの低い生成AIツールを選定する
著作権リスクの低いツールを選ぶことが、効果的な対策の一つです。例えば、Adobe社の「Firefly」のように学習データがクリーンなツールは、そもそも問題が起きにくいと言えます。
加えて、万が一の際に費用を補償してくれる「IP補償プログラム」の有無も、法人にとっては重要な選定基準です。
生成AIをうまく活用するには著作権への配慮が必要不可欠
生成AIを正しく使いこなす力は、現代のビジネスにおいて大きな強みです。ただ便利に使うだけでなく、その裏にある著作権リスクを理解し、対策を講じる姿勢が、将来のトラブル予防にもつながります。
学習データの問題や、意図せず既存の作品に似てしまうリスクなど、表に見えている便利さだけでなく、「見えないリスク」にも目を向けながら、慎重に活用していくことが大切です。こうした法的リスクへの対応や、社内ガイドラインの作成・管理を効率化したいときは、AIを活用した法務支援プラットフォーム「LegalOn」の導入もひとつの選択肢です。
契約審査から法務ナレッジの共有までを一貫してサポートし、リスク管理の負担を軽減し、業務の精度も高められるでしょう。
「生成AIと著作権」よくある誤解Q&A
Q1. 学習(入力)に既存の著作物を使うのは違法?
A. 日本では「情報解析目的」に限り原則適法。ただし権利者利益を不当に害する態様や海賊版等の違法源は不可。
実務ポイント:学習源の適法性表明/契約範囲/再学習オプトアウトの有無をベンダー選定する際にチェックしましょう。
Q2. 社内だけで使うなら“私的使用”に当たり安全?
A. いいえ。業務利用は私的使用ではありません。社内共有でも公開・配布の性質が強いほどリスクは上がります。
実務ポイント:社内利用でも出典・ロゴ等の固有表現が含まれる場合は公開前に必ずチェックしましょう。
Q3. “〜風(作家名・キャラ名)”と指示しても著作権侵害には当たらない?
A. 高リスクです。特定作品の表現上の本質的特徴に近接すれば、依拠性×類似性で侵害評価され得ます。
NG→OK例:NG「◯◯先生風の線と配色で」→ OK「細い線、低彩度、余白多め、幾何学構図」など要素分解で表現。
Q4. 生成物には著作権が自動的に発生する?
A. いいえ。人の創作的寄与が具体化している場合に限り、著作物性が認められる余地。自動生成のみは困難です。
Q5. 社内のプロンプトやアップロード文書は“学習に使われない”から安全?
A.設定と規約次第。既定で再学習に利用されるサービスもあります。
実務ポイント:再学習オプトアウト/テナント内保持/保存期間/削除権限を設定・記録。