本地免费部署OpenClaw(龙虾模型),核心是用一键脚本快速安装 + Ollama 本地开源模型,全程零成本、离线可用、隐私安全。下面是 Windows/macOS/Linux 通用保姆级教程。
最低配置:内存≥2GB、硬盘≥1GB、CPU 支持现代指令集
必备:Node.js ≥18(推荐 22+);本地模型用Ollama(免费开源)
# 解锁脚本权限(输入Y回车) Set-ExecutionPolicy RemoteSigned -Scope CurrentUser # 一键安装 iwr -useb https://openclaw.ai/install.ps1 | iex
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw doctor # 检查环境 openclaw status # 查看状态 openclaw dashboard # 打开面板
安装 Ollama:ollama.com 下载对应系统版本并安装
拉取轻量开源模型(推荐):
# 或
验证模型运行:
ollama ps # 看到qwen2.5或glm4即成功
启动配置向导:
openclaw onboard
按提示选择:
模型提供商:Ollama
API 地址:http://localhost:11434
模型名称:qwen2.5(或你拉取的模型名)
启动网关并生成 Token:
openclaw gateway start openclaw token generate # 复制生成的Token
浏览器访问:http://localhost:18789,粘贴 Token 登录
在 OpenClaw 聊天框输入:帮我列出当前目录文件
命令行查看:
ollama ps # 模型处于运行状态 → 本地推理,0 Token成本
安装 Node.js ≥22、Git、pnpm
拉取国内镜像(更快):
git clone cd openclaw-cngit checkout v2026.2.2-cn # 稳定版
安装依赖并构建:
npm install -g pnpmpnpm installp npm buildpnpm ui:buildpnpm link --global
启动:
openclaw onboard --install-daemon openclaw start
安装失败:管理员身份运行终端 / PowerShell,切换网络重试
模型调用失败:确认 Ollama 运行、API 地址正确、重启 OpenClaw
服务卡顿:关闭无关程序,升级内存,只运行一个模型
接入钉钉 / 飞书 / 企业微信,实现群内 AI 自动执行任务
配置定时任务、文件操作、浏览器自动化等 Skills
接入更多本地模型(Llama 3、Mistral 等)