本地免费部署OpenClaw(龙虾模型)

分享   2026-03-11 22:11   6   0  

本地免费部署OpenClaw(龙虾模型),核心是用一键脚本快速安装 + Ollama 本地开源模型,全程零成本、离线可用、隐私安全。下面是 Windows/macOS/Linux 通用保姆级教程。

一、硬件与依赖要求

  • 最低配置:内存≥2GB、硬盘≥1GB、CPU 支持现代指令集

  • 必备:Node.js ≥18(推荐 22+);本地模型用Ollama(免费开源)

二、一键安装 OpenClaw(最快)

Windows(管理员 PowerShell)

# 解锁脚本权限(输入Y回车)
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
# 一键安装
iwr -useb https://openclaw.ai/install.ps1 | iex

macOS/Linux(终端)

curl -fsSL https://openclaw.ai/install.sh | bash

验证安装

openclaw doctor  # 检查环境
openclaw status  # 查看状态
openclaw dashboard  # 打开面板

三、安装本地模型(Ollama,免费开源)

  1. 安装 Ollama:ollama.com 下载对应系统版本并安装

  2. 拉取轻量开源模型(推荐):

# 或
  1. 验证模型运行:

ollama ps  # 看到qwen2.5或glm4即成功

四、OpenClaw 绑定本地模型(关键)

  1. 启动配置向导:

openclaw onboard
  1. 按提示选择:

  • 模型提供商:Ollama

  • API 地址:http://localhost:11434

  • 模型名称:qwen2.5(或你拉取的模型名)

启动网关并生成 Token:

openclaw gateway start
openclaw token generate  # 复制生成的Token
  1. 浏览器访问:http://localhost:18789,粘贴 Token 登录


五、验证本地运行(确保免费)

  1. 在 OpenClaw 聊天框输入:帮我列出当前目录文件

  2. 命令行查看:

ollama ps  # 模型处于运行状态 → 本地推理,0 Token成本

六、源码部署(开发者 / 自定义)

  1. 安装 Node.js ≥22、Git、pnpm

  2. 拉取国内镜像(更快):

git clone  
cd openclaw-cngit checkout v2026.2.2-cn  # 稳定版
  1. 安装依赖并构建:

npm install -g pnpmpnpm installp
npm buildpnpm ui:buildpnpm link --global
  1. 启动:

openclaw onboard --install-daemon
openclaw start

七、常见问题与解决

  • 安装失败:管理员身份运行终端 / PowerShell,切换网络重试

  • 模型调用失败:确认 Ollama 运行、API 地址正确、重启 OpenClaw

  • 服务卡顿:关闭无关程序,升级内存,只运行一个模型

八、进阶玩法

  • 接入钉钉 / 飞书 / 企业微信,实现群内 AI 自动执行任务

  • 配置定时任务、文件操作、浏览器自动化等 Skills

  • 接入更多本地模型(Llama 3、Mistral 等)


下一篇
没有了
博客评论
还没有人评论,赶紧抢个沙发~
发表评论
说明:请文明发言,共建和谐网络,您的个人信息不会被公开显示。