2025年、AIによる動画生成の分野は、かつてないスピードで進化しています。今回紹介するのは、グローバルな団体が主導した国際動画コンテスト「Project Odyssey」シーズン2から入手した詳細レポートです。AI時代のクリエイターにとって、いま何が可能で、どこに課題があるのか。その全体像をデータで解説してみます。
「Project Odyssey」は、世界中のクリエイターとモデル開発者・AIサービス提供者がコラボレーションした実験的な国際映像コンテストでした。
Season 2では、映像作家・アーティスト・研究者・開発者など多様な47社、4593投稿、総数にして190時間の作品が集まり、AIで生成された短編映像作品を共有しました。
協賛社一覧です。AICU Inc.も参加しています。
単なる「プロンプト→動画」ではなく、編集・合成・補正・反復を経た制作プロセスが共有されました
多くの参加者が(かつての主流だった)Runway以外のツールやVFX、音声合成、3D生成とのハイブリッドワークフローを活用している。
こちらは参加作品で最も多く使われたAI・映像制作ツール(ALL ENTRIES - TOP TOOLS)のランキングです。
(投稿数ベース / 使用時間含む)
1 Kling 2,886件 125.3時間 映像生成
2 Midjourney 1,633件 72.2時間 画像生成
3 Hailuo MiniMax 1,517件 73.2時間 映像生成
4 Suno 1,491件 68時間 音声生成
5 ElevenLabs 1,223件 64.9時間 音声生成
6 CapCut 987件 41.5時間 エディタ
7 Runway 977件 50.4時間 映像生成
8 Civitai 868件 41.3時間 画像共有・学習モデル
9 ChatGPT 804件 42.4時間 言語生成(LLM)
10 Flux 725件 36.6時間 エディタ(マルチツール)
🎥 Video(映像):Kling, Runway, DaVinci Resolve など
🖼️ Image(画像):Midjourney, Leonardo.ai, Civitai, DALL·E など
🔉 Audio(音声):Suno, ElevenLabs, Udio, Envato など
🔧 Integrator/Suite(統合ツール)
🧠 LLM(言語生成):ChatGPT, FAL
🎛️ Interface/UI:Forge, Google ImageFXなど
🛠️ Editor(編集ツール):CapCut, Final Cut Pro, Clipchampなど
🔼 Upscaler(画質向上):Topaz Video AIなど
🧬 Multiple(複合型):RunPod, Dreaminaなど
映像系ではKling, Hailuo, Runwayがダントツの使用率
音声系(Suno, ElevenLabs)が非常に健闘
ComfyUIは15位(Freepikの次)と中堅位置。これは「高度な制御が可能な一方で、学習コストが高い」ことを示しているかもしれません。
Flux、ChatGPT、Civitai
Season2の募集期間2024年12月から1月のデータということになります。
2025年5月現在ではWan2.1やRunway Gen-4が登場し、ComfyUIも動画をサポートしているため、だいぶ状況は変わっているかもしれません。継続的な調査が必要ですね。
円グラフ左(視聴者アンケート)
ナラティブ(物語): 19.9%
実験映像(Experimental Art): 18.5%
ミュージックビデオ: 17.5%
トレーラー: 13.6%
ソーシャルメディアショート: 11.7%
スペック広告(Spec Ads): 10.4%
ミーム: 8.4%
円グラフ右(制作側の投稿数)
ミュージックビデオ: 28.8%
ナラティブ: 18.7%
オープン形式(Open Format): 16.0%
ソーシャルメディア: 11.4%
トレーラー: 10.2%
マーケティング&広告: 9.2%
VFXとレンダリング: 3.2%
ビハインド・ザ・シーン: 2.6%
注目点:
ミュージックビデオの投稿が突出して多い
ナラティブやトレーラーは「見る・作る」の両面でバランスが取れている。
VFXや舞台裏は作品数が少ないが、制作支援・技術力の指標として重要。
このグラフから、AI映像生成の「見る側」と「作る側」で興味に違いがあることが見て取れます。「ソーシャルショート」と「ミーム」は同一カテゴリにまとめることもできる一方、ミュージックビデオは「観る」よりも「作られる」傾向が強いという興味深い差異が見られます。AICUとしては、初音ミク時代のニコニコ動画を考えると納得がいく感じもします。
動画AIモデルは、静止画ではなく「動く表現」をつくる道具として成熟しつつあります。MidJourney等で静止画を作り、Runwayで動画化するというスタイルはAICUでも解説を行なっています。
このレポートで強調されているのは、AIはクリエイターの“手”を拡張するツールであり、発想や設計は人間が担っているという点。AIを“筆”としてどう使うか「つくる人をつくる」が、これからの時代の鍵になります。
シーズン2参加者の声として、AIによる原著性の定義や作品評価の偏りに関する課題も浮き彫りになりました。
https://corp.aicu.ai/ja/project-odyssey-2-20250301
このレポートは、私たちが提案している「つくる人をつくる」ためのAIとの共創というビジョンと非常に親和性が高い内容でした。
Project Odysseyのような試みは、こうした取り組みと連携しうる次のステップになるでしょう。AI動画生成は、ツールから文化へと進化を始めました。
元データの作成を行なった Project Odysseyの感謝を記します。
またこのようなデータの活用に興味がある企業さんのお手伝いをしてきたいと思います。遠慮なくAICUにご相談ください。
Originally published at note.com/aicu on May 12, 2025.