スポンサーリンク

Windows11ProでHyper-V+Ubuntu Server+Docker+OpenClaw環境構築にtryしてみる(2)UbuntuにOllamaをインストールするもローカルLLMが遅すぎて挫折

2026年2月20日

前回はこちら

この続きです。

スポンサーリンク

開発環境

Panasonic CF-FC2025
Intel Core Ultra 7 255H
RAM 64GB
Windows 11 Pro

やりたいこと

Windows 11 
   └── Hyper-V
         └── Ubuntu Server (32GB固定割当)
               ├── Ollama
               │     └── qwen3:8b(通常)
               ├── picoclaw
               └── Telegram Bot(systemd常駐)

流れ

  1. Hyper-Vを有効化
  2. Ubuntu Server VMを作る
  3. Ollamaのインストール → 今回はここから

Ollamaのインストール

もう、ChatGPTに聞きながらやるだけです。

なんか、コードがうまくコピペできないので、それもChatGPTに聞く

SSH接続する方針とします。

Windowsから、Hyper-VのVM内のUbuntuにSSH接続する

ということだそうなので、

ip a

でIPアドレスを確認して、WindowsのPowershellからSSH接続します。

じゃなくて、Antigravityのターミナル画面でやってみました。

うまくSSH接続できたようです。

Ollamaのインストール

相変わらず、ChatGPTに聞いて、そのまま手を動かすだけ。そのうち、AI Agentならそれもやってくれるんだろうなあ。。。

いわれた通り、Antigravityのターミナル画面で、

curl -fsSL https://ollama.com/install.sh | sh

から始めていきます。

active(running)のようです。

Qwen3-8Bのダウンロード

picoclawの頭脳としてのLLMとして、ChatGPT やClaudeやGeminiのAPIを利用するのが通常のようですが、これら3つは課金しかないらしいのです。とりあえず、無料でやりたいので、ChatGPTにお勧めされた、中国製のQwen3-8Bというものを使ってみたいと思います。

8分以上かかるらしい。。。 5.2GBだそうです。

あれ?クラウド上で動いていると本人(?Qwen3-8B)は言っているけど、、、

ChatGPTに言われた通り、VM側で一度ネットワークを切って、ためしてみてみます。(後で戻す) → と思いましたが、SSHも切れてしまうので、試さないことにしました。

Ctrl+C で会話中のQwen3を止めて、Ctrl+D で会話を脱出します。

picoclawのインストール

なかなかうまくいきません。

cd ~
rm -f picoclaw-linux-amd64
git clone https://github.com/sipeed/picoclaw.git
cd picoclaw
ls

エラーが出たら、そのままChatGPTに張り付けて、言われたコードをコピペして、の繰り返し

かなり何回もChatGPTにエラー文の画像を張り付けまくりましたが、やっとpicoclawがインストールできたようです。

UbuntuにGo言語?をインストールし、ソースコードからビルドしたらしいです。詳しいことは分かりません。

うまくいったかどうかも、ChatGPTに張り付けるだけです。うまくいった場合は以下のように言ってくれて、次の手順も教えてくれます。

picoclawの初期設定

修正前

修正後

さらに、

修正前

修正後

うまくいかない!

すごくたくさんやりましたが、結局、ローカルLLMの反応が遅すぎて、タイムアウトしてしまったりで、うまくいきませんでした。

ローカルLLMあきらめ、、、ChatGPTのAPIを従量課金でやってみたいと思います。とほほ。。。コスト的に、

gpt-4o-mini を考えています。

AI

Posted by twosquirrel