Windows11ProでHyper-V+Ubuntu Server+Docker+OpenClaw環境構築にtryしてみる(2)UbuntuにOllamaをインストールするもローカルLLMが遅すぎて挫折
前回はこちら
この続きです。
開発環境
Panasonic CF-FC2025
Intel Core Ultra 7 255H
RAM 64GB
Windows 11 Pro
やりたいこと
Windows 11
└── Hyper-V
└── Ubuntu Server (32GB固定割当)
├── Ollama
│ └── qwen3:8b(通常)
├── picoclaw
└── Telegram Bot(systemd常駐)
流れ
- Hyper-Vを有効化
- Ubuntu Server VMを作る
- Ollamaのインストール → 今回はここから
Ollamaのインストール
もう、ChatGPTに聞きながらやるだけです。
なんか、コードがうまくコピペできないので、それもChatGPTに聞く
SSH接続する方針とします。
Windowsから、Hyper-VのVM内のUbuntuにSSH接続する
ということだそうなので、
ip a
でIPアドレスを確認して、WindowsのPowershellからSSH接続します。
じゃなくて、Antigravityのターミナル画面でやってみました。
うまくSSH接続できたようです。
Ollamaのインストール
相変わらず、ChatGPTに聞いて、そのまま手を動かすだけ。そのうち、AI Agentならそれもやってくれるんだろうなあ。。。
いわれた通り、Antigravityのターミナル画面で、
curl -fsSL https://ollama.com/install.sh | sh
から始めていきます。
active(running)のようです。
Qwen3-8Bのダウンロード
picoclawの頭脳としてのLLMとして、ChatGPT やClaudeやGeminiのAPIを利用するのが通常のようですが、これら3つは課金しかないらしいのです。とりあえず、無料でやりたいので、ChatGPTにお勧めされた、中国製のQwen3-8Bというものを使ってみたいと思います。
8分以上かかるらしい。。。 5.2GBだそうです。
あれ?クラウド上で動いていると本人(?Qwen3-8B)は言っているけど、、、
ChatGPTに言われた通り、VM側で一度ネットワークを切って、ためしてみてみます。(後で戻す) → と思いましたが、SSHも切れてしまうので、試さないことにしました。
Ctrl+C で会話中のQwen3を止めて、Ctrl+D で会話を脱出します。
picoclawのインストール
なかなかうまくいきません。
cd ~
rm -f picoclaw-linux-amd64
git clone https://github.com/sipeed/picoclaw.git
cd picoclaw
ls
エラーが出たら、そのままChatGPTに張り付けて、言われたコードをコピペして、の繰り返し
かなり何回もChatGPTにエラー文の画像を張り付けまくりましたが、やっとpicoclawがインストールできたようです。
UbuntuにGo言語?をインストールし、ソースコードからビルドしたらしいです。詳しいことは分かりません。
うまくいったかどうかも、ChatGPTに張り付けるだけです。うまくいった場合は以下のように言ってくれて、次の手順も教えてくれます。
picoclawの初期設定
修正前
修正後
さらに、
修正前
修正後
うまくいかない!
すごくたくさんやりましたが、結局、ローカルLLMの反応が遅すぎて、タイムアウトしてしまったりで、うまくいきませんでした。
ローカルLLMあきらめ、、、ChatGPTのAPIを従量課金でやってみたいと思います。とほほ。。。コスト的に、
gpt-4o-mini を考えています。
ディスカッション
コメント一覧
まだ、コメントがありません