英国高等法院「ゲッティイメージズ対Stability AI」 訴訟で判決

英国高等法院「ゲッティイメージズ対Stability AI」 訴訟で判決

2025年11月4日付の英国高等法院による「ゲッティイメージズ対Stability AI」歴史的訴訟に判決が出たようです。

Neutral Citation Number: [2025] EWHC 2863 (Ch)
Joanna Smith判事による判決を下しました。
https://www.judiciary.uk/judgments/getty-images-v-stability-ai/

判決は、被告であるStability AIが実質的に勝利した内容となりました。ゲッティ側が主張した主要な著作権侵害(二次的侵害)の主張は棄却され、商標権侵害については、ゲッティの主張が一部認められたものの、その範囲は「歴史的かつ極めて限定的」なものとされました。

In summary, although Getty Images succeed (in part) in their Trade Mark Infringement Claim, my findings are both historic and extremely limited in scope. The Secondary Infringement Claim fails.

以下に、判決の重要なポイントを要約します。

1. 著作権侵害(二次的侵害):Stability AIの勝利

ゲッティ側は、AIモデル(Stable Diffusion)そのものが、著作権を侵害する画像を学習して「作られた」ものであるため、モデル自体が英国法における「侵害複製物(infringing copy)」⭐︎にあたる と主張しました。

判決:この主張は棄却されました。

Getty Images’ claim of secondary infringement of copyright is dismissed.

判事は、AIモデル(Stable Diffusion)が「侵害複製物」にはあたらないと結論付けました。その主な理由は以下の通りです。

AIモデルは作品を「保存」も「複製」もしていない

裁判所は、「Stable DiffusionのようなAIモデルは、いかなる著作権作品も保存したり複製したりするものではなく(これまでもそうしてこなかった)」と明確に認定しました。これは、モデルが学習元データを「記憶」しているのではなく、データから統計的な「パターン」を学習しているという技術的現実を司法が認めたことを意味します。

...an AI model such as Stable Diffusion which does not store or reproduce any Copyright Works (and has never done so) is not an “infringing copy”...(as is agreed by the Experts) Stable Diffusion does not itself store the data on which it was trained.

「作る過程」と「最終的なモノ」は別

ゲッティ側は、モデルの「作成(making)」プロセス(=トレーニング)において著作権侵害(画像の複製)が行われたため、その結果として作られたモデルも侵害物であると主張しました。

しかし判事は、トレーニングのプロセスでコピーが使用されたとしても、最終的な成果物であるAIモデル(モデルの重み)自体が、それらのコピーを保存したり含んだりしていない以上、モデル自体を「侵害複製物」と呼ぶことはできない、というStability側の主張を認めました。

In my judgment, it is not an infringing copy. It is not enough, as it seems to me, that (in Getty Images’ words) “the time of making of the copies of the Copyright Works coincides with the making of the Model”... by the end of that process the Model itself does not store any of those Copyright Works; the model weights are not themselves an infringing copy and they do not store an infringing copy....in its final iteration Stable Diffusion does not store or reproduce any Copyright Works and nor has it ever done so.

2. ゲッティ側の主要な主張の「放棄」

この判決で特に注目すべき点として、ゲッティ側が最終弁論の直前に、当初の主張の多くを自ら放棄(abandoned)していたことが挙げられます。

英国でのトレーニング(一次的侵害)の主張

ゲッティ側は、Stable Diffusionのトレーニングと開発が英国で行われたという証拠がないことを認め、この主張を取り下げました。

...it is now acknowledged by Getty Images that (i) there is no evidence that the training and development of Stable Diffusion took place in the United Kingdom (such that what has been called "the Training and Development Claim" has been abandoned);

AIの「出力」に関する著作権侵害の主張

AIが生成した画像(出力)そのものが著作権を侵害するという、いわゆる「Outputs Claim」も放棄されました。

(ii) ...the relief to which Getty Images would have been entitled in respect of their allegations of primary infringement of copyright (referred to as "the Outputs Claim") has now been substantially achieved. Thus the Outputs Claim has also been abandoned;

データベース権の侵害

上記に関連するデータベース権侵害の主張も放棄されました。

and (iii) given its inherent link to the Training and Development Claim and the Outputs Claim, a claim for database rights infringement ("the Database Rights Infringement Claim") can now no longer be advanced.

3. 商標権侵害:限定的かつ「過去の」問題として認定

ゲッティ側は、Stable Diffusionが「gettyimages」や「iStock」という同社の商標(ウォーターマーク)に似た歪んだ画像(Sign、判決文ではウォーターマーク⭐︎ と表記)を生成することがあるため、これが商標権侵害にあたる と主張しました。

画像
画像
ゲッティイメージズのウォーターマークを「非常に彷彿とさせる」モンスターの画像

判決:この主張は一部認められました。

ただし、裁判所が侵害を認めたのは以下の古いモデルに限られます。

  • v1.x モデル⭐︎(iStockの商標侵害):

    1. セクション10(1)(同一の標章・同一の商品役務)およびセクション10(2)(混同の可能性)に基づく侵害が認められました。

  • v2.x モデル⭐︎(Getty Imagesの商標侵害):

    1. セクション10(2)(混同の可能性)に基づく侵害が認められました。

重要な制限

裁判所は、より新しいモデルである SDXL⭐︎ および v1.6⭐︎ については、英国の一般ユーザーがこれらのウォーターマーク付き画像を生成したという証拠が一切ないとして、これらのモデルに関する商標権侵害の主張をすべて棄却しました。

I do not consider there to be any evidence that one real life user in the UK has generated a watermark using either SD XL or v1.6.
The Getty Watermark Experiments failed to produce a result for either of these Models...

また、セクション10(3)(不正な利益や名声の毀損)に基づく主張もすべて棄却されました。

これは、Stability AIがSDXL以降で技術的改善(オプトアウトの仕組みを含む)を行った結果、古いモデルにあった問題が解決済みであることを示唆しており、判決もこれを「歴史的(historic)」な問題として扱っています。

英判決は「技術の正当性」を認め、「非効率な対立」に終止符を打った

判決は、Stability AIが実質的に勝利した内容となっています。ゲッティ側が主張した主要な著作権侵害(二次的侵害)の主張は棄却され、商標権侵害については、ゲッティの主張が一部認められたものの、その範囲は「歴史的かつ極めて限定的」なものとされました。

AICUは、クリエイティブAIの発展には「つくる人」への公正な対価とエコシステムの構築が不可欠であると一貫して主張してきました。その観点から、今回の判決は「AIは違法な複製である」という短絡的な批判を法的に退け、より建設的な議論への道を開いた点で、非常に大きな意義を持ちます。

まとめ:AICUの視点と「クリエイター・エコシステム」の課題

今回の英国判決は、「AIモデル(重みファイル)は、学習元画像の『複製物』ではない」という、AI技術の法的地位に関する重要な判断を下しました。これは、AIモデルそのものを違法な海賊版とみなそうとする議論に、司法が明確な一線を画したことを意味します。

しかし、この判決は、クリエイターが直面する、より根本的な問題を解決するものではありません。

  • 論点の違い 今回の判決が「AIモデルという成果物」の法的正当性に焦点を当てたのに対し、SDXL以降のオプトアウトによる合法化もあるように、多くのクリエイターが問うているのは「AIの学習プロセス(=AIの教科書)」の透明性、そして経済的公正性ではないでしょうか。

  • 残された課題 判決は「モデルはコピーではない」としましたが、「モデルを作るために無数の作品を無断で学習すること(したこと)は倫理的か、経済的に公正か」という問いには答えていません。しかしもし仮にその学習が日本で行われていたとしたら、そもそも「合法」であった可能性があります。

  • クリエイターのジレンマ 多くのクリエイターは「AIを使いたいが、そのAIが仲間の作品を無断で搾取しているかもしれない」というグレーゾーンの状況に苦しんでいます。技術の適法性(今回の判決)と、クリエイター・エコシステムの公正性は、分けて議論される必要があります。

  • 「オプトアウト」の限界 Stability AIはSDXL以降でオプトアウトを導入しましたが、「拒否したい者が自ら申請する」というオプトアウト方式は、本来AI開発側が負うべきコストと責任をクリエイター側に転嫁するものであり、根本的な解決にはならない可能性があります。

日本法(著作権法第30条の4)との決定的な違い

今回の英国の訴訟で、ゲッティ側は「英国内での学習(一次的侵害)」の主張を、証拠不十分で放棄(abandoned)せざるを得ませんでした。だからこそ、裁判の争点は「AIモデル(成果物)が侵害複製物にあたるか?」という、より技術的な論点(二次的侵害)に移りました。

しかし、もしこの学習が日本国内で行われていた場合、日本の著作権法第30条の4(情報解析のための複製)に基づき、AI側(Stability AI)は「学習行為そのものが適法である」と主張した可能性が極めて高いです。

そうなった場合、ゲッティ側は英国よりもさらに厳しい戦いを強いられたでしょう。英国では争点にすらならなかった「学習行為の適法性」が、日本ではAI側に有利な形で認められ、訴えの根幹が覆されたかもしれません。

学習はAWSで行われた、という記載があるため、リージョンなどを明確にすることで、法的な争点になった場合に明確にすることができる可能性があります。

ただし、日本の第30条の4も万能ではなく、以下の重要な論点は残ります。

  1. 「ただし書き」の存在: 第30条の4には「著作権者の利益を不当に害することとなる場合」は適法な利用から除外するという「ただし書き」があります。ゲッティ側は、古いモデルがウォーターマーク付きの低品質な画像を生成し、自社のライセンス市場と直接競合することは、この「ただし書き」に該当すると強く主張したはずです。

  2. 商標権は「別問題」である: 著作権法第30条の4は、あくまで「著作権」の例外規定です。AIがウォーターマーク*(商標)を生成してしまう問題は「商標権の侵害」であり、著作権法では保護されません。したがって、仮に日本で学習が適法と判断されたとしても、今回の英国判決と同様に「商標権侵害」については別途争われた可能性が濃厚です。

AICUが目指す「AIとクリエイターの共存」のためには、今回の英国判決のような技術の法的正当性の確立と同時に、「学習データの透明性」と「公正な報酬(対価)の仕組み」の構築が不可欠です。

この判決を「AIは合法」という短絡的な結論と捉えるのではなく、AI開発企業とクリエイターが真に対等なパートナーとして「共創」できる、公正なルール(AI税や電波利用料のような仕組み)の議論を加速させる契機とすべきです。

AICU mediaは「AI時代に つくる人をつくる」という視点で、今後も世界の最新訴訟を追っていきたいと考えます。

関連する活動 この判決が示す「技術の適法性」と、私たちが直面する「学習プロセスの公正性」の問題は異なります。後者の課題解決に向け、AICUは以下の署名活動を提起しています。

商用AIは日本作品で利益を得ている、でも報酬はゼロ? 〜商用AIモデルに「学習データの公開」と「公正な報酬」を義務化してください〜 https://www.change.org/AI-eco-for-creators

クリエイターエコノミーに関する調査も行っています。
生成AI時代の“つくる人”調査 2025.10
【第1期 回答期限】2025年11月11日(火)23:59まで
【シェア歓迎】 短縮URL https://j.aicu.ai/R2511

⭐︎用語注釈

  • 侵害複製物 (infringing copy): 英国著作権・意匠・特許法(CDPA)第27条に基づく法的用語。ゲッティ側は、AIモデルの「重みファイル」自体が、その「作成過程(making)」で著作権侵害(画像のコピー)を伴うため、この定義に該当すると主張しました。

  • ウォーターマーク (watermarks): 判決文において、Joanna Smith判事がAIによって合成的に生成されたウォーターマーク(Sign)を、本物のウォーターマーク(Mark)と区別するために使用した表記法です。

  • v1.x, v2.x, SD XL, v1.6: Stability AIがリリースしたStable Diffusionモデルのバージョン。v1.xはCompVisとの協力でリリースされ、v2.x以降はStability AIが主導してリリースされました。判決では、特に新しいモデル(SD XL, v1.6)においてウォーターマークの生成証拠がないことが認定されました。

https://corp.aicu.ai/ja/sora2-20251030

 

Originally published at note.com/aicu on Nov 5, 2025.

AICU Japan

AICU Inc. AIDX Lab - Koto

Comments

Related posts

Search 【AICU Lab+勉強会】 11/5 「ComfyJapan結成!!」ざすこが語る、最近の Wan2.2 と Comfy Cloud