开始养你的数字"龙虾"
部署 OpenClaw 就像在家里养一只数字宠物
部署 OpenClaw 就像在家里养一只数字"龙虾",虽然玩法很有趣,但作为一款为开发者设计的工具,安装过程确实需要动动手。为了让你能顺利拥有属于自己的 AI 助手,我整合了主流的几种部署方式,并为你准备了这份详细的"饲养手册"。
在开始前,你需要了解,OpenClaw 主要有两种玩法:
基础玩法:OpenClaw 本体 + 云端 API 模型(如阿里云百炼)。这种方式对电脑配置要求低,OpenClaw 负责执行任务,但"思考"依赖云端算力。
进阶玩法:OpenClaw 本体 + 本地大模型(如通过 LM Studio 部署 Qwen3.5)。这种方式数据完全本地化,但需要电脑有较好的显卡(GPU)。
你可以根据自己的硬件情况和需求,选择下面最顺手的一条路。
环境准备
无论选择哪种方式,你都需要先准备好基础环境。这就像养龙虾前要先准备好鱼缸。
- Windows: 推荐 Windows 11 或 Windows 10 (2004版以上)。特别注意,为了最好的兼容性,建议使用 WSL2 (Linux子系统)
- macOS: 支持 Intel 和 Apple Silicon 芯片,macOS 12 以上
- Windows: 推荐 Windows 11 或 Windows 10 (2004版以上)。特别注意,为了最好的兼容性,建议使用 WSL2 (Linux子系统)
- macOS: 支持 Intel 和 Apple Silicon 芯片,macOS 12 以上
- Linux: 如 Ubuntu 20.04/22.04 LTS
- Node.js: 必须 22.x 或更高版本。这是 OpenClaw 的运行引擎,非常重要
- Git: 用于版本管理和插件安装
- Python: (可选) 某些高级技能包可能需要
- 入门配置:8GB 内存 + CPU。只能使用云端 API 模型,或运行超小模型
- 进阶配置:16GB 内存 + RTX 3060 (12GB 显存) 及以上显卡。可流畅运行 7B-9B 参数的本地模型
- 它会引导你选择模型服务商(如选择 Qwen 并授权),或者你可以选择跳过,后续手动配置
- 询问是否安装
skills,建议选择 Yes - 选择
hooks,也建议安装
环境准备
无论选择哪种方式,你都需要先准备好基础环境。这就像养龙虾前要先准备好鱼缸。
npm config set registry https://registry.npmmirror.com/
极速上手·一键安装脚本
适合绝大多数新手 - 官方推荐的方式,脚本会自动帮你搞定大部分事情
安装 Node.js
访问 Node.js 官网 下载并安装 LTS 版本 (如 22.x)。安装时务必勾选"Add to PATH"。
运行一键脚本
打开终端(Windows 用户请以管理员身份打开 PowerShell),根据你的系统复制以下命令执行:
curl -fsSL https://openclaw.ai/install.sh | bash
iwr -useb https://openclaw.ai/install.ps1 | iex
跟随向导完成初始化
脚本运行后会自动进入配置向导 (onboard),你需要按提示操作:
启动服务并查看面板
# 启动网关服务 (OpenClaw 的心脏)
openclaw gateway start
# 查看服务状态
openclaw status
# 打开 Web 控制台 (会自动生成带令牌的 URL)
openclaw dashboard
http://127.0.0.1:18789/ 之类的地址并看到界面,恭喜你,部署成功!
Windows 用户专属·纯原生安装
适合不想用 WSL2 的用户 - 如果你觉得 WSL2 太麻烦,也可以直接在 Windows 上安装
安装基础软件
安装 Node.js LTS 和 Git,同样记得勾选"Add to PATH"。
安装 VC++ 运行库
访问微软官网下载并安装 Visual C++ Redistributable (64位版本),这是很多 Node.js 本地模块编译必需的。
放开 PowerShell 权限
以管理员身份打开 PowerShell,执行以下命令,允许运行本地脚本:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
执行一键安装
在管理员 PowerShell 中执行之前提到的一键安装命令:
iwr -useb https://openclaw.ai/install.ps1 | iex
初始化并启动
安装完成后,同样执行 openclaw gateway start 和 openclaw dashboard 来启动并访问。
硬核玩家·本地大模型部署
LM Studio + GPU - 如果你想彻底摆脱网络,让"龙虾"在你自己的显卡上"思考"
下载并安装 LM Studio
访问 LM Studio 官网 下载对应系统的版本并安装。
下载模型
打开 LM Studio,在搜索框输入"qwen3.5",根据你的显存下载合适的模型(例如 12GB 显存可以下载 Qwen3.5-9B-i1-Q4_K_M)。
启动本地 API 服务器
点击左侧「Server」选项卡,开启「Enable Server」和「Enable OpenAI Compatibility」开关,记住默认端口是 1234。
安装 OpenClaw 并修改配置
通过 npm 安装 OpenClaw:npm install -g openclaw@latest。
然后找到配置文件 openclaw.json (通常在用户目录下的 .openclaw 文件夹里),按照类似下面的格式添加一个本地模型提供商:
{
"models": {
"providers": {
"local-gpu": {
"baseUrl": "http://localhost:1234/v1",
"apikey": "",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-9b-v2-stage1",
"name": "本地 Qwen 模型"
}
]
}
}
}
}
重启服务
修改配置后,重启 OpenClaw 网关服务即可。
常见问题与技巧
快速解决部署过程中的常见问题
命令找不到 (command not found)
这通常是因为 npm 的全局安装目录没有添加到系统的环境变量 PATH 里。
解决方法:执行 npm prefix -g 找到路径,然后将其下的 bin 文件夹(例如 /usr/local/bin)添加到你的 shell 配置文件(如 .zshrc 或 .bashrc)中。
服务启动失败
可以先用 openclaw doctor 命令进行全面的健康检查,它会给出修复建议。
对于 Windows 用户:多半是 VC++ 运行库 没装好。
如何接入聊天软件?
安装成功后,可以通过 openclaw channels add 命令来配置钉钉、飞书等渠道。
具体配置方法(如获取 Client ID 和 Secret)可以参考官方文档。
WSL2 推荐吗?
对于没有 Linux 背景的朋友,Windows 的 WSL2 子系统可能是最容易上手的方式。
提示:WSL2 提供了完整的 Linux 环境,兼容性最好。