💡 别被 API 掏空钱包!今天我们要用 16G 统一内存的 Mac,零成本在本地跑通 OpenClaw 的 AI Agent(接入 Ollama 本地模型)!这也是一期本地化实战教程。
大家好,我是龙力坤。
上期我们讲了 OpenClaw 的安装和基本配置, 模型我们用的都是云端的 API,要么 Claude,要么 GPT,都是按量收费的。 但很多朋友在问:有没有办法用本地模型?不花钱,纯本地跑? 答案是可以的。今天就来演示怎么让 OpenClaw 接入本地的 Ollama 模型。
路线图与注意事项
整个过程非常简单,主要分 3 步:
- 第一步:在本地安装并测试 Ollama 大模型
- 第二步:修改 OpenClaw 配置文件
- 第三步:重启服务,并发送飞书消息进行验证
不过在开始实操之前,我要先给大家打个预防针。
本地小模型的能力和 Claude 这种顶级模型差距还是很大的。 你不能指望它去调用工具、写代码、完成非常复杂的任务。 鉴于我的电脑是一台 16G 统一内存的 Mac 芯片, 所以今天我们的目标只把它连接跑通。能正常对话就算成功。
顺便提一下,如果你的机器装的是英伟达显卡,除了 Ollama 之外,还可以考虑用 vLLM。 配置稍微复杂一点,但 vLLM 对英伟达 GPU 的优化更好,推理速度会快不少。 不过我的显卡不是英伟达的,所以今天我们就还是用 Ollama 来进行演示。
步骤 1:安装并测试 Ollama
现在我的 OpenClaw 已经部署在 Docker 里了。 如果你还没装 OpenClaw,建议先去看上期视频。
然后我们安装 Ollama。 首先到 Ollama 的官方下载安装,使用命令行和安装程序都可以。
装好之后,我们先跑一个模型试一试。这里选一个小模型,千问 3.5 的 0.8B 版本。 在命令行里运行:
ollama run qwen3.5:0.8b
它会自动下载模型,然后进入对话。
输入一个测试,有回复说明没问题。然后按 ctrl+d 退出模型。
步骤 2:配置 OpenClaw 接入本地大模型
模型准备好了,接下来配置 OpenClaw。 打开 OpenClaw 的官方文档,找到 Ollama 的部分,其实配置很简单。
因为 OpenClaw 对 Ollama 有一个自动发现的机制。
你只要设置一个 OLLAMA_API_KEY 环境变量就行,这个值可以是随意的。
通过 export 设置环境变量:
export OLLAMA_API_KEY="ollama-local"
或者使用 openclaw cli 的命令设置。
然后打开 OpenClaw 的配置文件:
这里的配置文件在你的用户主目录下面,有一个点开头的隐藏文件夹叫 .openclaw,里面有个 openclaw.json,这就是主配置文件。
然后在 openclaw.json 中添加模型,类似这样:
{
"agents": {
"defaults": {
"model": { "primary": "ollama/qwen3.5:0.8b" }
}
}
}
检查没有红色格式错误,保存。
如果你的 Ollama 和 OpenClaw 都跑在本机,
并且没有配置 models.providers.ollama,
那设好环境变量之后,OpenClaw 会自动去 127.0.0.1:11434 找 Ollama,
连 providers 都不用手动配,非常省事。
Docker 部署环境的避坑配置
但是因为我的 OpenClaw 是运行在 Docker 容器中的,所以我还需要手动配置一下。
复制官网的配置到 openclaw.json 中,修改一下。
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://host.docker.internal:11434",
"apiKey": "ollama-local",
"api": "ollama",
"models": [
{
"id": "qwen3.5:0.8b",
"name": "Qwen3.5 0.8B",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 8192,
"maxTokens": 81920
}
]
}
}
}
}
这里主要注意 baseUrl:我们要把它改成 Docker 的地址,也就是 http://host.docker.internal:11434。
然后是 api字段:如果你写的是 ollama,后面就不带 /v1;如果你写的是 openai-completions,后面就要带 /v1。
如果你怕 JSON 的格式改错,你可以使用引导程序。
选择 Custom Provider,输入 http://host.docker.internal:11434,输入 api key 和模型别名即可。
步骤 3:验证与飞书测试避坑
配好之后,保存文件,然后我们重启一下 OpenClaw 的容器,让配置生效。
现在打开浏览器,访问 OpenClaw 的管理面板。发一条消息试试。 可以看到,经过漫长的等待,模型回复了。 虽然 0.8B 的小模型回答速度和质量都一般,但连接是成功了的。
然后我们再测试一下飞书的接入。 打开手机的飞书 APP,发送一条消息。等一下,这里也收到回复了。
这里要特别提醒一下: 如果你也要测试,最好不要用 0.8B 这种极小模型,有条件的话,尽量换成 9B 或者 27B 的模型。 因为发过来的消息可能比较复杂,也就是上下文比较长,小模型往往处理不了这么长的上下文结构,很容易直接卡死或者报错。
到这一步,我们就算是用本地的 Ollama 成功跑通 OpenClaw 了。 如果你之后升级了机器,比如 32G 或者 64G 的显卡,可以直接换更大的模型,只需要 Ollama 先拉取模型,然后修改配置文件里的模型名称就行,其他配置完全不用动。
好了,这就是本期教程的全部内容。 用本地模型跑 OpenClaw,虽然能力有限,但至少可以零成本体验一下 Agent 的玩法。 如果觉得对你有帮助,欢迎点赞、评论加关注。我们下期再会!