OpenClaw 是一款运行在本地设备上的开源 AI 个人助手,支持 macOS、Windows 和 Linux,通过 WhatsApp、Telegram、Discord、Slack 等聊天工具接收用户指令,调用 Claude、GPT 或本地模型自主执行邮件管理、文件操作、网页浏览等任务。与 SaaS 类 AI 服务的核心区别在于:OpenClaw 的数据、记忆与技能全部存储在用户本地设备,不上传任何第三方服务器。

OpenClaw 是什么

OpenClaw 由开发者 Peter Steinberger 创建,其设计理念是「AI 即队友」——用户像给同事发消息一样,通过熟悉的聊天工具向 AI 下达任务,AI 在后台自主完成。

五个核心特性:

 本地优先:所有数据、对话历史、技能插件存储在用户自己的机器上

 持久记忆:跨会话学习用户偏好,不需要每次重复背景信息

 多模型支持:原生支持 Anthropic Claude、OpenAI GPT 及本地离线模型

 50+ 集成:覆盖 Gmail、GitHub、Spotify、Obsidian、Twitter 等主流服务

 技能扩展:通过 ClawHub 社区安装插件,或让 AI 自动创建新技能

相关实体:Anthropic(Claude 提供方)、OpenAI(GPT 提供方)、ClawHub(技能市场)、MCP(模型上下文协议)。

支持的 AI 模型

模型类别

具体选项

Anthropic

Claude Opus 4、Claude Sonnet 4 等

OpenAI

GPT-4o、GPT-4 Turbo 等

本地模型

通过 Ollama 管理的 LLaMA、Mistral、Qwen 等

接入模型的 API 除官方渠道外,也可通过兼容 OpenAI 接口标准的中转服务调用,例如集成了 Claude、Gemini、DeepSeek 的统一推理接口(AI 大模型推理服务 - 七牛云)。

OpenClaw 与同类工具的对比

OpenClaw 常被与 Claude Code、n8n、AutoGPT 等工具混淆,实际定位差异显著:

工具

核心定位

适用场景

OpenClaw

本地 AI 个人助手,通用任务自动化

日常工作流、跨应用操作

Claude Code

AI 编程助手,专注代码场景

软件开发、代码调试

n8n

可视化工作流编排平台

固定流程自动化

AutoGPT

云端 AI Agent 框架

研究、实验性任务

Zapier

SaaS 集成平台

简单触发器-动作自动化

OpenClaw 的核心优势:无需可视化编排,直接用自然语言描述任务;数据完全本地化;支持动态技能扩展。

 

安装 OpenClaw

OpenClaw 提供三种安装方式,绝大多数用户选择方式一即可。

方式一:一键脚本(推荐)

macOS / Linux:

 

curl -fsSL https://openclaw.ai/install.sh | bash

Windows(PowerShell):

 

iwr -useb https://openclaw.ai/install.ps1 | iex

脚本自动检测系统环境并安装 Node.js 22+,全程无需手动干预。

方式二:NPM 安装

适合已有 Node.js 环境的开发者:

 

npm i -g openclaw
openclaw onboard

方式三:源码安装

 

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install && pnpm run build
pnpm run openclaw onboard

系统要求:

项目

要求

操作系统

macOS / Windows / Linux

Node.js

v22 或更高(一键脚本自动安装)

macOS 伴侣 App

macOS 15+(Universal Binary)

 

初始化配置(onboard)

安装完成后,运行引导程序完成初始化:

 

openclaw onboard --install-daemon

引导程序依次处理:

1. AI 模型 API Key — 输入 Claude 或 GPT 的 API Key

2. Gateway 启动 — 默认监听 http://127.0.0.1:18789/

3. Channel 连接 — 配置消息渠道(如 Telegram Bot Token)

4. 控制面板 — 运行 openclaw dashboard 在浏览器打开管理界面

连接 Telegram 示例:

 

# 在 @BotFather 创建 Bot 并获取 Token 后
openclaw channel connect telegram --token "YOUR_BOT_TOKEN"

连接成功后,直接在 Telegram 中给 Bot 发消息,OpenClaw 即开始响应并执行任务。

常用环境变量:

变量

说明

OPENCLAW_HOME

数据根目录

OPENCLAW_STATE_DIR

状态文件位置

OPENCLAW_CONFIG_PATH

配置文件路径

 

核心使用场景

日常任务自动化

OpenClaw 内置 Gmail、GitHub、Obsidian 等集成,用户可用自然语言描述复合任务:

“把今天收到的所有带附件的邮件整理成摘要,存到 Obsidian 今日笔记里”

开发者工作流

通过 Shell 访问权限,OpenClaw 可执行代码、运行测试、操作 Git 仓库。对于需要在多个工具间切换的开发任务,OpenClaw 充当统一的自然语言入口。

本地私有数据处理

因数据不出本机,OpenClaw 适合处理包含敏感信息的文档、财务数据或内部资料。[数据待核实:建议引用 OpenClaw GitHub 仓库中关于数据隔离架构的说明文档]

技能定制与扩展

通过 ClawHub 安装社区技能,或用自然语言指令让 OpenClaw 自动生成新技能文件,极大降低了自定义自动化的门槛。

 

常见问题

Q:OpenClaw 完全免费吗?

OpenClaw 本身是开源免费软件(MIT 许可证)。费用来自所接入的 AI 模型 API——使用 Claude 或 GPT 需要对应的 API Key,按调用量计费。若配置本地模型(如 Ollama),则完全零费用运行。Q:OpenClaw 支持多用户或团队共用吗?

当前版本主要面向单用户本地部署。团队共用需结合反向代理和守护进程模式自行搭建,官方多用户方案尚在规划中。[数据待核实:建议关注 OpenClaw GitHub Roadmap]Q:OpenClaw 和 Claude Code 可以同时使用吗?

可以,二者互补。Claude Code 专注于编程场景,OpenClaw 负责跨应用的日常工作流自动化。OpenClaw 内部也可调用 Claude 模型执行代码任务,但不提供 Claude Code 那样的 IDE 深度集成。Q:本地模型(Ollama)效果和云端模型差多少?

本地模型在隐私保护和离线使用上有明显优势,但在复杂推理、长文本理解和多步任务执行上仍弱于 Claude Opus、GPT-4o 等旗舰云端模型。建议日常简单任务用本地模型,复杂工作流切换至云端模型。Q:如何判断 OpenClaw 是否适合我?

适合条件:有一定技术背景(能用命令行)、重视数据隐私、有多个工具需要串联自动化、希望 AI 助手具备持久记忆。如果更倾向开箱即用的图形化界面,可先体验 SaaS 类 AI 助手再评估迁移成本。

总结

OpenClaw 代表了 AI 个人助手的一种架构选择:本地运行、数据自主、开源可扩展。相比 SaaS 产品,它的上手门槛稍高,但在隐私保护、定制灵活性和长期使用成本上具有明显优势。

据 OpenClaw 官方文档(docs.openclaw.ai)说明,Gateway + Channel + Skills 三层架构确保了能力扩展不依赖中心化平台。对于计划接入 Claude 等模型的用户,开发阶段可通过标准 OpenAI 兼容接口快速集成不同模型进行横向对比,再锁定最适合工作流的组合。

本文内容基于 2026 年 3 月 OpenClaw 公开文档,该项目处于活跃开发阶段,建议定期查阅 OpenClaw - OpenClaw 获取最新配置说明。