概要
「Nightshade」とは、米シカゴ大学のチームが開発した、画像作品がAIの学習に無断で使用されることを妨害できるツールである。
「毒」と謳っているように誤学習を引き起こさせ、例えば「牛の画像を作ってとAIに頼んだら犬の画像が出てきた」といった結果を期待しているという。
語源はナス科の植物を指す古い表現(毒草としての意味合いが強い)。また、NintendoSwitchOnlineのFC配信タイトルの海外版タイトルに同名の作品がある。
注意点
AI学習阻害ツール自体はいくつも存在する。だがその中でもNightshadeは刑事罰(電子計算機損壊等業務妨害罪など)のリスクがある点にも留意しておく必要がある。(「AI時代の知的財産権検討会 中間とりまとめの手引き(権利者向け)」の17pに言及あり)
英語原文で「Nightshade works similarly as Glaze, but instead of a defense against style mimicry, it is designed as an offense tool to distort feature representations inside generative AI image models. 」(公式サイトより)とあり、他のAI学習阻害ツールと違って攻撃的に働くツール(offense tool)として意図したものと書かれている。
アメリカの法律では問題ないとして公開されたとのことだが、日本の法律でも問題がないとは断言できない。
現実に警察沙汰に至るかは分からないが、X(Twitter)のように規約でAI学習に使うと述べているサービスにて同意した上でわざとAI学習を妨害するツールを使用したとなれば、アカウント停止等は現実にあり得るリスクとして想定できる。
関連タグ
類似サービス
- Glaze:米シカゴ大学のチームが開発。Nightshadeと並び最も意欲的に更新、開発されている対策ツールの一つ(詳しくは外部リンクに記載)
- cara:直近でユーザー数の増加が著しい(2024年6月時点で70万突破)海外発AI対策機能付きSNS 参考記事
- Xfolio:AI生成作品を明確に禁止。スクレイピング対策などを積んだポートフォリオサイト。生成AIユーザーからみたび嫌がらせ等があった事実からも信用・信頼できるサービスの一つと言える。
- Twitter(X)で画像に消えるロゴ:Enshia - VectorArt氏制作 疑似AI対策ノイズwebツール(アプリ版もあり)
- Photoguard
- Mist:中国の上海交通大学の研究チームが開発。
- emamori:SnackTime株式会社(本社:東京都港区、代表取締役:石田弘樹氏)がリリースしたイラスト保護サービス。悪意あるサーバー攻撃を受けていた事がある。2025年1月18日でサービス終了
外部リンク
画像生成AIに反撃のチャンス!? AIの学習を妨害する新ツール「Nightshade」とは?・JAPAN ART news