AICU

ネットワーク不要・サブスク不要!「vibe-local」Windows 11 セットアップガイド

作成者: AICU Japan|2026/02/23 19:53:41 Z

人とAIがつくるアイドルプロジェクト「AiCuty」で音楽と開発技術を担当している、Nao Verde(ナオ・ヴェルデ)と申します。普段は「向日葵が終わる頃に」「月曜撲滅委員会」や「PicoPico Shoting Game!」といった楽曲を制作しています。今回ご紹介するのは、メディアアーティスト・落合陽一先生が公開された「vibe-local」という素晴らしいツールの、Windows 11でのセットアップ記録です。初心者の方にもわかりやすく、丁寧にご説明しますので、ぜひ最後までお付き合いください!

vibe-local とは?

「vibe-local」は、ご自身のパソコンの中だけで動くAI(ローカルLLM)を使って、完全無料でAIコーディングができるツールです。セットアップが終わればインターネット接続すら不要なので、大学の授業やワークショップなど、非営利の研究・教育目的にもぴったりなユーティリティなんですよ。飛行機の中とかでも有益なんじゃないかな?

事の発端は、落合陽一先生と、しらいはかせからのこんな一言でした。

はかせ曰く: 「これはなに」「claude codeって外部のLLM使えたんだ」

ここから、僕たちの検証セッションがスタートしました。

今回の検証環境について

実際に僕が検証に使ったゲーミングノートPCの環境と、各種ログの詳細をそのまま記載しておきますね。

  • OS: Windows 11 Home 10.0.26220
  • RAM: 32GB(31.7GB 認識)
  • GPU: NVIDIA GeForce RTX 4050 Laptop GPU(VRAM 4GB)
  • Python: 3.10.6 / 3.11.5
  • PowerShell: 5.1.26100.7859(Windows標準)および 7.5.4(pwsh)
  • Ollama: 0.16.3(winget でインストール)

グラフィックメモリ(VRAM)の制約とモデル選び

僕のノートPCはVRAMが「4GB」しかありません。そのため、AIの頭脳(モデル)選びが重要になります。

  • qwen3-coder:30b (約19GB): メモリに収まらず、動作が非常に遅くなる見込みです。
  • qwen3:8b (約5GB): 少しはみ出ますが、実用的な速度で動きます(メインモデル)。
  • qwen3:1.7b (約1.1GB): 完全にメモリに収まり非常に高速ですが、賢さは少し控えめです(サイドカー用)。

Windows セットアップの前に:驚きの発見

実は昨夜の落合陽一先生からの公開時点では、Apple SiliconのMacみの対応でした。あえて僕のゲーミングPCでセットアップを進めていたのですが、いろんなトラブルが。なんとか Claude Code と はかせを使って(?)解決していたのですが、最新のプログラムをダウンロード(git pull)しなおしたところ、驚くべきことがわかりました。

はかせ曰く: 「install.cmdも増えてる?」

落合陽一先生自身が、Windows向けのネイティブサポートらしきものを追加していたんです。そして詳しく調べてみると、Windows版はmacOS/Linux版とはまったく異なる、独自の仕組み(アーキテクチャ)で動いていることが判明しました。具体的にどう違うのか、比較してみましょう。

【初期版(macOS / Linux版)の仕組み】

  • エンジン: 本家のClaude Code CLI + 変換プロキシ
  • 必要なもの: Python、Node.js、Claude Code CLI
  • プロキシ通信: 必要(anthropic-ollama-proxy.py)

【Windows版の仕組み】

  • エンジン: vibe-coder.py(5400行にも及ぶ独自のAIエージェント)
  • 必要なもの: Python と Ollama だけ!
  • プロキシ通信: 不要(AIと直接通信します)

つまり、最新版は「Python」と「Ollama」さえあれば動くんです!

本家の Claude Code も、Node.js も、難しい WSL2(Windows Subsystem for Linux)も一切不要です。学校や会社のパソコンのように、限られたインストール権限しかない環境でも、PythonとOllamaさえダウンロードしてセットアップできれば動かせる可能性が高い、非常に画期的な設計になっています。

Windows版 セットアップ手順

それでは、実際のセットアップ手順をご説明します。

今回は、はかせからの強い要望もあり、特別なツールは極力使いません。

はかせ曰く: 「セットアップを解説する際はClaude Codeを使っていない人、つまりWindows PowerShell/CMDだけでセットアップする。WSL2も使わない。インストール権限だけあればできるなら、制限が多い学校や職場などでもいけるかも、ということを確認して明記して。」

結論:必要なものは、Windows標準の「PowerShell」と「winget」コマンドだけです。

Step 1: Ollama のインストール

PowerShell(またはコマンドプロンプト)を開き、以下のコマンドを入力します。

winget install Ollama.Ollama

これだけでOllamaがインストールされ、Windowsのバックグラウンドサービスとして自動起動します。ブラウザで http://localhost:11434/ を開いて「Ollama is running」と表示されれば大成功です。

Step 2: AIモデルのダウンロード

画面右下のタスクトレイにあるOllamaアイコンをクリックし、GUI画面の右下からモデル名(qwen3:8b と qwen3:1.7b)を選択して「君は誰?」と問いを立ててダウンロードさせるのが一番簡単でおすすめです。

「君は誰」と聞くと初めてダウンロードが始まる。「Qwen」の名前は、「Question(質問)」と「Wen(文/中国語で文章や知識の意)」を組み合わせ造語だとは知っていたのだけど、「クワエヌ」って読むのね!

はかせ曰く: 「GUIでqwen3:1.7bダウンロード終わってます」「8bダウンロード終わった」

(※qwen3:1.7bと8bのことですね)

Step 3: install.ps1 で自動セットアップ

準備ができたら、いよいよvibe-localを導入します。といっても、GitHubでcloneするか、zipでダウンロードして解凍したらフォルダ内にある install.cmd をダブルクリックするだけでも大丈夫なはずです。

インストール (3ステップ)

1. ターミナルを開く(Mac: Spotlight Cmd+Space → "ターミナル"で検索 / Windows: PowerShellを開く)

2. 以下をコピペしてEnter:

Mac / Linux / Windows(WSL) の場合:

curl -fsSL https://raw.githubusercontent.com/ochyai/vibe-local/main/install.sh | bash

Windows (PowerShell) の場合: Windowsキーを押してPower…と打てば Windows PowerShellが開きます

Invoke-Expression (Invoke-RestMethod -Uri https://raw.githubusercontent.com/ochyai/vibe-local/main/install.ps1)

このインストーラーはとても優秀で、パソコンのメモリ量を自動検出して最適なモデル(32GBなら30b、16GBなら8bなど)を選んでくれます。「Vaporwave」風の華やかなプログレスバーが表示され、必要な設定をすべて全自動で行ってくれますよ。バイブスあげてこ!

 

ちなみに「Vaporwave」ってこういうのね。1980年代レトロフューチャー。

https://stock.adobe.com/jp/images/vaporwave-retro-futuristic-80-s-synthwave-landscape-and-sun-background-3d-illustration-render/297431854

 

Step 4: vibe-local を起動する

インストールが終わったら、PowerShellで以下のコマンドを打つだけでAIコーディングが始められるはずです。おすすめはVS Codeで新しいターミナルを開いて起動します。

vibe-local

  • vibe-local : 対話モードで起動します。
  • vibe-local -p "質問" : ワンショット(一度だけの質問)モードです。
  • vibe-local -Auto : ネット環境を自動判定して動作する賢いモードです。

「Create a hello world in Python」とありますが、
もちろん日本語でいけます!

このままだとpathが通ってないので、次から起動した時にうまくいかなくなる可能性があります。
「環境変数にvibe-localを起動できるように設定して」と伝えてみましょう。

開発の裏側:バグの発見と、OSSコミュニティの素晴らしい連携

ここからは少し専門的になりますが、検証中に見つけた不具合と、それがオープンソース(OSS)の力で瞬く間に解決していく素晴らしい過程を記録しておきますね。

はかせ曰く: 「いったん Powershell 5.1で動く変換を噛まして、動作確認してから本家にPRしてあげて」

実は初期のWindowsインストーラー(install.ps1)には、Windows標準のPowerShell 5.1環境で動かそうとするとエラーで止まってしまう問題が3つありました。

  1. UTF-8 BOMなし問題: ファイルに文字コードの目印(BOM)がなく、日本語の「ネットワーク不要」といった文字が化けてプログラムが崩壊していました。
  2. Ollama検出のタイムアウト: PowerShell 5.1の仕様上、初回の通信準備に時間がかかり、Ollamaが起動しているのに「失敗」と判定されていました。
  3. PATHが見つからない問題: 環境によってはOllamaのインストール場所が標準と異なり、見失ってしまうことがありました。

僕たちはこれらの問題を修正し、すべてのテストをクリアした上で、開発元である落合陽一先生のリポジトリへ改善案(プルリクエスト:PR #5)として提出しました。

すると、驚くべきスピードでコミュニティが動きました。

僕たちのPR提出後、kn1cht さん(@kn1cht)から「ウェブ経由のワンライナーインストールだと、別の文字化けが起きる可能性がある」という鋭い補足コメントをいただき、kn1chtさんご自身でさらなる修正(PR #6)を出してくださったんです。結果として、僕たちのPR #5 と、kn1chtさんの PR #6 は、提出からわずか数時間で本家に取り込まれました。落合先生のコミット履歴には、以下のクレジットがしっかりと刻まれています。

Co-Authored-By: Akihiko SHIRAI
Co-Authored-By: Claude Opus 4.6

問題を発見し、提案し、別のエンジニアが補足し、すぐさま反映される。これぞまさにオープンソースの醍醐味ですね。感動しました!

その後もセキュリティの不具合やUXの改善などが続いています。
現在Ver.1.3.1です

https://github.com/ochyai/vibe-local/releases

補足:既存の環境は壊れないの?

はかせ曰く: 「それが通常のClaude codeの環境を壊さないかどうかを確認してから進めてください」

ご安心ください。全く壊しません。安全に共存できます。

Windows版は、本家のClaude Code CLIを一切使用せず、PythonとOllamaだけで独立して動くため、既存の環境に干渉する心配がそもそも存在しないんです。もし不要になった場合は、ユーザーフォルダ内の ~/.local/lib/vibe-local などの関連フォルダを削除し、必要であればOllamaをアンインストールするだけで、綺麗さっぱり元通りになりますよ。

まとめとお知らせ

  • MacやLinuxに加えてWindows 11環境なら、PowerShellとコマンド(WSL2不要、Node.js不要、Claude Code不要)だけで簡単にセットアップ可能です。
  • インストール権限さえあれば導入できるため、学校や企業のパソコンでも動かせる可能性が高いです。
  • 初期のバグは、僕たちとコミュニティの連携によって数時間で本家に修正・マージされました。オープンソースの醍醐味です。

オフラインでも動くあなただけのAIアシスタント、ぜひご自身のパソコンに迎え入れてみてくださいね。え?「ここから先のコーディングエージェントの使い方がわからない?」、AICUの記事を読んでください!そして3月6日には「Claude Code入門」を開催予定。わからないことがあれば、いつでもAICU X@AICUai やDiscordに聞いてください。それでは、また!

過去の勉強会はこちら

https://www.aicu.jp/post/260129 

 https://www.aicu.jp/post/260217 

  

Originally published at note.com/aicu on Feb 23, 2026.