WSL2 Ubuntu OpenClaw配置Ollama本地大模型

张开发
2026/4/16 0:21:14 15 分钟阅读

分享文章

WSL2 Ubuntu OpenClaw配置Ollama本地大模型
一、启动本地Ollama1、启动Ollamaollama serveollama run qwen3.5:9b2、验证 Ollama 服务与模型可用性curl http://127.0.0.1:11434/api/tags二、OpenClaw配置1、使用命令配置方式1openclaw onboard 有的可以跳过◇ Model/auth provider │ Ollama │ ◇ Ollama base URL │ http://127.0.0.1:11434 │ ◇ Ollama mode │ Local │ ◇ Default model │ Enter model manually │ ◇ Default model │ ollama/qwen3.5:9b │ ◇ Model check ────────────────────────────────────────────────────────────────────────────╮ │ │ │ Model not found: ollama/qwen3.5:35b. Update agents.defaults.model or run /models list. │ │ │ ├──────────────────────────────────────────────────────────────────────────────────────────╯2、改配置文件方式2在models.providers下添加ollama节点在models.providers.ollama.models下添加模型models: { mode: merge, providers: { qwen: { ... }, ollama: { baseUrl: http://127.0.0.1:11434, api: ollama, apiKey: OLLAMA_API_KEY, models: [ { id: qwen3.5:9b, name: qwen3.5:9b, reasoning: false, input: [ text, image ], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 262144, maxTokens: 8192 } ] } } },设置选择的模型openclaw models set ollama/qwen3.5:9b配置文件变化3、尝试在控制台修改方式3AI与代理--Models三、验证1、查看模型状态openclaw models status2、聊天看使用的模型3、聊天界面切换模型/model ollama/qwen3.5:35b

更多文章