AI学習禁止
えーあいがくしゅうきんし
「自分の作品の機械学習は許さない」という意思表明。多くのpixivユーザーがこのタグをつけたり、イラストにウォーターマーク(透かし)を入れたりしている。
あくまでも意思表明としての意味しか持たず、AI学習予防効果は無い。
具体的な予防効果有る無しに関する話はpixiv百科内のウォーターマークの項でも触れている。
「コンテンツの無断利用」ということで無断転載と同列にされることがあるが、著作権法上は転載とAIなどによる情報解析は、複製に関して全く異なる扱いになっている(後述)。
投稿した絵やそのタグにAI学習禁止と書いてあっても、規約で投稿物の機械学習を掲げるSNS(X、Instagram、facebook)などでは自動的に機械学習される。
またgoogleがネットにある全ての画像の機械学習を宣言しており、googleのクロールが走っている所(blueskyなどAPIを開放している所)は全て機械学習されている。
また機械学習をせず、規約で無断での情報解析を禁止しているほか、AIなどのプログラムが特定の情報を大量に取得すること(Webスクレイピング)を制限している、クロールを弾いているサイト(xfolio,Caraなど)であっても、個人が絵を収集し追加学習に使った場合、止める事が出来ない。
pixivでもサービス利用規約第14条で「商業・営業目的の活動、営利を目的とした利用およびその準備」「当該投稿情報を投稿等したユーザーの利益を害すると当社が判断する行為」を禁止行為に挙げているほか、Botなどによる作品取得への対策もとっている
(下記「pixivにおける対策」を参照。しかし、完全な対策は不可能なのが現状である)。
Webスクレイピングを技術的に制限していると謳っているサイトでも、googleの画像検索でサムネイルが表示される場合があり、その場合はgoogleに機械学習されている。
確実な機械学習対策は「AIに学習されるのが嫌ならネットに上げない」ことしか方法はない。
AI時代の知的財産権検討会 「中間とりまとめ」 ー 権利者のための手引き
を視聴したことを前提として解説する。
2024年現在の日本では、AIがインターネット上のイラストなどの著作物を収集・加工してAIモデルを作成することは、原則として合法である。
著作権法は「文化的所産の公正な利用に留意しつつ、著作者等の権利の保護を図り、もつて文化の発展に寄与することを目的」(著作権法 第一章 総則 第一節 通則 (目的)第一条)であり、著作者ではなく公共の福祉のために存在する。
そのため既存著作物を「公正に利用」することは盗作ではない。
そもそも著作物の学習(機械学習、情報解析)は、著作者の許可をとる必要は無く
学習を拒否する権利、支分権は著作権法に存在しない。
日本著作権法は生成AIなどの活用を促進するため、著作権法の一部を改正する法律(平成30年法律第30号)が、画像生成AIなどの普及を想定して制定されており
共産党以外の全政党、大手出版社新聞社の同意の元、可決された。
また、2024年11月時点「AI学習による著作権侵害事例や裁判例の蓄積がない」(文化庁)として、この部分の法改正の予定は無い。また法解釈の検討も行われていない。
機械学習時のデータセット制作時に著作者の許可なく著作物の複製を行う行為は、権利制限規定により完全に認められた行為になった。(改正前は明確になっていなかった)
著作権法では、条約によって許される範囲内で「権利制限規定」と呼ばれる「例外規定」
が数多く置かれ、一定の条件下で権利者の了解を得ずに著作物等を利用できる。
機械学習に関係する権利制限規定は、著作権法 第三十条の四である。(AIの機械学習は情報解析に該当する)
著作権法 第三十条の四は非享受利用であればどのような方法でも基本的に利用してよいとしており、情報解析(機械学習)は非享受利用のため本来複製権によって制限されるはずの利用も認められている。
つまり日本著作権法がAIの機械学習を保護している。
著作権法 第三十条の四
著作物は、次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には、その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる。
ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は、この限りでない。
二情報解析(多数の著作物その他の大量の情報から、当該情報を構成する言語、音、影像その他の要素に係る情報を抽出し、比較、分類その他の解析を行うことをいう。第四十七条の五第一項第二号において同じ。)の用に供する場合
「当該著作物」を享受について
「当該」とは学習に使われた元の著作物
元の著作物において表現された思想又は感情、すなわち本質的特徴や創作的表現(画風ではない)
「生成物」を享受する目的であればその限りではない。
つまり学習対象著作物の著作権を侵害すると評価できるような、類似表現を出力する目的(創作的表現)を伴って機械学習を行う場合は享受目的が併存する。
当該著作物を享受する目的(例、鬼滅の刃1巻を機械学習させて、鬼滅の刃1巻がそのまま読める生成物(構図、配置、コマ割り、台詞、ストーリーといった創作的表現全てが類似している)を作ることを目的に作られた)AIモデルは違法になるが
当該著作物を享受しない目的(例、鬼滅の刃1巻を機械学習させて、鬼滅の刃風の画風(アイデア)になる、炭治郎(キャラクター、アイデア)が生成される)AIモデルは違法ではない。
享受の意味については「AIと著作権Ⅱ」で文化庁の詳しい解説が視聴できる。
よく言われている「情報解析は享受」「絵柄を享受できるから絵柄LoRAは違法」「出力されたイラストを見るのは享受だからAIイラストは違法」「版権キャラクターが生成されるから違法」などは間違った認識である。
著作権法30条の4の但し書きに該当し、著作権違反となるケースは非常に狭く
2024年11月時点、但し書きに該当するのは、データセットの複製のみである(データセットも著作物であるため)
データセット自体が著作物として保護されるのであって、データセット中に入っているデータ(絵など)の保護ではない事にも注意が必要である。
また情報解析用としての販売実態がある事も必要であり、中に入っている絵などをSNSなどで一般公開している場合は、その絵は保護対象から外れている。
またAI生成物は手描き同様、類似性と依拠性があり裁判所が著作権侵害だと判断した場合のみ著作権侵害になる。
(例、鬼滅の刃を機械学習していないAIモデルだとしても、
生成者が鬼滅の刃1巻を知っていて(依拠性の肯定)、鬼滅の刃1巻がそのまま読めるような形で(創作的表現、類似性の肯定)AI生成物を製作した場合などは、生成者が著作権侵害をしているという判断になる)
現在の日本の法制度上は、ネットに公開されているあらゆる情報の機械学習に事実上歯止めはない。また海外においても、フェアユースや主にヨーロッパ圏における「研究目的であれば権利者の不利益であろうともオプトアウトを認めない」考え方なども存在する。
確かに規約で無断学習を禁止しているサイトもあるが、実態としてはほぼ無視されている。PixivやxfolioやCaraのようにWebスクレイピングを技術的に制限しているイラスト投稿サイトであっても、転載サイトを利用するなどの抜け道を使って学習させている。
主にイラスト系の生成AIに反発する人が挙げる「AI学習」について、実際のところは「i2i(image-to-image)・ControlNet機能の参照元にする行為」「大規模データセット・基盤モデルのための情報解析行為」「狙い撃ち画風LoRA(Low-Rank Adaptation)作成のための少数素材での情報解析行為」がそれぞれ区別されず、混同して理解されているケースが多い。
i2i・ControlNet機能の参照元にする行為
いわゆるトレパク・構図パクに近い結果がもたらされやすい。これらは現行の著作権法でも類似性・依拠性の両方があれば著作権侵害が認められる可能性がある。
「AI“学習”」に括られがちだが、i2i・ControlNetは生成・利用段階の話になるため、厳密に言えばこれらは学習行為ではない。また手描きでの著作権違反と原則として同じであり、類似性・依拠性の程度によっては著作権違反として訴えられる可能性がある。
またその性質上、強度の設定が可能な事や題材の変更なども用意であるため、被害者が自身の作品を利用されたことに気付けないケースも多いと予想出来る。
(低ノイズでi2iした場合は元の著作物の類似性を維持するが、高ノイズでi2iした場合は元の著作物の類似性を維持せず、類似性そのものが消滅するため著作権侵害とはなりづらい)
類似性・依拠性を認められなければ問題となる事はないが、AIの現状の立ち位置を鑑みるに類似点が多いほど炎上の危険性が高まる。これは手描きでも「ネットで拾った実写の写真を資料にして2次元美少女を描く」行為に近い。そのため、AI利用者側も他人の著作物の安易な使用や低強度での使用は基本的に避けた方が良いだろう。
大規模データセット・基盤モデルのための情報解析行為
X(Twitter)などの企業や大規模サービスに多く見られる「AI学習・トレーニング」という言葉は大体これに当てはまる。またAIに詳しい人が「学習」と言っているときも概ねこれを指す。なお法律上の扱いとしては現状、Google検索なども同じように扱われている。
イラストレーターの個人名と紐づけての学習がなされた場合、その枚数によっては絵柄を取り出す事も可能になる。また個人の絵柄の出力が出来ない場合でも、絵のクオリティの概念(best quality/worst qualityなど)やキャラクターの特徴(衣装や髪型など)や画風(アナログや水彩、デジタルイラストなど)の概念の学習には1枚1枚のイラストが広く浅く関わっていると考えられる。
自民党の赤松健議員は講演でクリエイターへの利益還元のため公式絵柄LoRA(こちらは後述)や絵師版のJASRACのような組織を作ろうという提言をしているが、反AI の猛反対もあり2025年2月の時点で前向きな進展はない。
狙い撃ち画風LoRA(Low-Rank Adaptation)作成のための少数素材での情報解析行為
AIに詳しい人がこれを指す場合、上と区別するため「LoRA作成のための学習」といった表現になりやすい。
いわゆる絵柄パクがもたらされやすく、それを目的として行われるケースも多い。しかしpixiv百科内の絵柄パクの項目でも解説されている通り、単に生成物が画風・絵柄が似ているだけではそれ自体で侵害行為として認められる可能性は極めて低い。
日本国内ではまだ個別具体的な訴訟結果などが出ていないため、現状では人間による手描きの場合と同じ解釈による運用がなされると考えられている。画風LoRAを悪用し作者になりすましての投稿、といった問題行為があれば著作権それ自体とは別件で罪に問うたり、SNS管理者・運営会社に対応を求めることができる可能性はある。
- なおpixivにおいてはサービス共通利用規約において、第14条 禁止行為 14項にて「運営者、他のユーザーその他の第三者になりすます行為、またはそのように誤認されるおそれがあると当社が判断する行為」は明確に禁止されている。
- また、漫画ONEPIECE公式にて写真を尾田栄一郎っぽい画風に変換する「似顔絵メーカー」、声優業界では梶裕貴氏が関わっている「梵そよぎプロジェクト」のようにいわゆる「公式LoRA」や関連サービスを公開している場合、不正競争防止法違反やパブシビリティ権の侵害などで損害賠償を請求できるようになり、他社が自分の声、絵柄を商業利用する事を抑制する効果がある。
(例:AI画像生成サービスがワンピース風LoRAで類似の商売を始めた場合、ONEPIECE公式側が損害賠償を請求する事が可能になる)
自分自身の絵柄LoRAを作成し、実際に販売や運用するなどの実績を作る事で対処しようとする動きも見られているが、現状個人がLoRAの販路を作る事は難しく、また知識として共有されるケースも少ない。
そのため個人の対策としてはウォーターマークの付与や、学習禁止のガイドライン作成などの、実効性の薄い対処方法が広まっているのが現状だ。
また販売実績を作る事は「利用される事自体を避けたい」とする考えには寄り添えていない点も、これらの考えの普及の足枷となっていると考えられる。
- なお山田太郎氏が文化庁資料など解説してくれた放送(2024/11/21)にて、50分40秒ごろから「最初から享受目的ということで、単なるデータセットだけでなく、例えば新海誠風の作品を作る『目的』にそればかり集めるような行為は駄目」と述べている。動画内の資料にも「特定のクリエイターのみの作品のみを集める場合、『共通する創作的表現』を享受する目的があると評価される場合がある」と書かれている。
- なお法律用語の『創作的表現』は画風・絵柄・アイデアを含まないのが原則である。動画としてわかりやすさを重視したのだとは推測されるが、「特定のクリエイターのみの作品のみを集める=即座に侵害」と単純に繋がらない点には注意されたい。
上に書いた内容と矛盾しているようにも見えるが、上の「単に画風が似た生成完成品の絵」は生成・利用段階であり一般ユーザーの話で、こちらは学習段階で侵害の主体になるかもしれないのがAI開発者・提供者の話になる。
AI学習禁止という表記は法的には無意味であるとする意見もあるが、他方で倫理的には見過ごせないとする見解もある。
意味がある派、ない派それぞれから以下のような意見が出ている。
表記は無意味であるとする主張
- 法的には無意味であるAI学習禁止のウォーターマークを入れる事は、著作権法の無理解を表明しているだけに過ぎない。
- 規約で投稿物の機械学習を掲げるSNS(X、Instagram、facebook)の場合、自分が利用してるサービスの規約を全く理解していないことを表明しているだけに過ぎない。
- 著作権法を理解せず、SNS規約も読んでいないという表明になるため、企業案件獲得を目指している絵師であるなら、契約書、約束事も読めない絵師だとクライアントに思われるリスクがある。
- 単なる利用条件の明示では、利用者に法的義務を負わせることは困難とされる。
- 例えばスマホアプリの初回利用時、必ず規約を読んでチェックボックスで確実な同意するような仕組みであれば一定の効力があるという意見もある。なおプロフィールやタグに標語を掲げるだけでは意味がないという意見の裏返しでもある。
表記には意味があるとする主張
- AI学習禁止のウォーターマークを入れる事は権利者の意思表示になる。
- とりあえずつけておけば抑止効果があるような気分になり、気持ちが楽になる。
- ※大規模なデータセットのための収集は機械的に行われているため、表記しても抑止効果はない。
- データセットの作成者が権利者の意向を考慮する際の判断材料となりうる。
- ウォーターマークを付加しておけば、削除した後の画像を無断使用した場合に違法性を問える可能性があるため、無意味ではない。
- ※ウォーターマークを削除する事自体は違法性を問えない点(日本以外の国に学習された場合は問える時もある)には注意。
これらはそれぞれが正当性のある主張であり、自分自身の立ち位置や思想により判断が分かれるため、現在も論争の火種となっている状態である。
要約すると、AIによる学習は罪に問えないが、AI生成物による不利益は手描きと同様に現行の著作権法や不正競争防止法、サービス管理者への通報などで対応可能である。
一方、SNSで「被害にあった」と晒し行為をするのは、相手を追い込み炎上させる行為であり私刑である。(文章によっては誹謗中傷等で告訴される可能性がある)
相手の投稿を削除させる効果はあるかもしれないが、根本的な解決にはならない。
晒し行為をする前に、文化庁が「文化芸術活動に関する法律相談窓口」を設けており、生成AI被害も含めて受け付けていると述べているので公的機関に相談することが推奨される。
文化庁の相談窓口では被害の解決方法を分かる範囲で教えてくれ、弁護士の紹介も行っている。
事前に2024年11月時点での情報をまとめたAI時代の知的財産権検討会 中間とりまとめの手引き(権利者向け)にも目を通しておくとさらにスムーズになることが期待される。
正式な窓口を通せば公的機関に情報として蓄積され、将来「このような出来事が何件あり、このような形で対応しました。これらのデータを踏まえて今後のためにガイドラインや周知徹底などしましょう」といった前向きな話に繋がりやすくなると考えられる。上にあるようSNSで炎上させて削除させた場合は文字通り「なかったこと」扱いになる。
ただし、形式を守っていなかったり、公的文章に相応しい文体になっていない場合は取り扱ってもらえない可能性が高い。(過去にあった不適切な例(togetter))
pixivにおける「AI学習禁止」タグのついた作品の閲覧数が2024年秋ごろを境に大きく増加しているが、これはX(Twitter)の同年11月15日に行われた規約改訂で「Xへの投稿物がこれからはAI学習されるようになる」という言説が原因である。タグのついた画像の投稿数が伸び、結果として閲覧数も伸びた形だ。実際は2023年9月からAI含めた情報解析は行われており、いくつもある用途の一つとして明文化しただけである。