OpenClaw 实战:在 Proxmox LXC 部署你的私人 AI 助理 (附保姆级教程)
AI 时代,除了跟 ChatGPT 聊天,我们还能做什么? 答案是:让 AI 真的帮你做事。
这是一篇关于如何把 OpenClaw(前身 Moltbot / Clawdbot)部署到 Proxmox LXC 的实战记录。 没有复杂的 Docker 编排,没有昂贵的云服务器,只要一个轻量级的 LXC 容器,就能拥有一个帮你盯盘、写博客的 24 小时私人助理。
一、为什么要折腾这个?
市面上的 AI 很多,但大多数是“聊天机器人”。你问它答,聊完即止。 OpenClaw 的定位不同,它是一个 AI Agent (智能体)。
它的杀手锏:
- 能干活:不仅仅是陪聊,它能调用工具(CLI, API, 浏览器)。
- 私有化:部署在你自己的 Proxmox 上,数据自己掌控。
- 多模态:支持 Telegram, Slack, WhatsApp 等多种渠道连接。
我的真实用法
为了证明它不是玩具,我举两个我现在正在用的场景:
场景 1:金融理财分析师 💰
我给 OpenClaw 设定了一个 cron 任务,每天中午股市收盘前:
- 自动查询 VOO (美股) 和 VFV (加股) 的实时价格。
- 读取 我存在本地的持仓成本文件。
- 分析 今天的走势,结合我的定投策略(DCA),直接发 Telegram 告诉我:“今天跌了,建议买入 $500” 或者 “涨太多了,今天观望”。
- 结果:我再也不用上班偷偷盯盘了。
场景 2:自动博客写作助理 ✍️
你现在看到的这篇文章,其实大半部分是 OpenClaw 帮我写的。
- 我给它一个 GitHub Repo 权限。
- 我扔给它一个选题和参考链接。
- 它自动分析我的文风,写好 Markdown,甚至生成封面图,最后提一个 Pull Request 给我。
- 我只要 Review 一下,点击 Merge,文章就发出来了。
二、部署环境准备
本次部署采用 Proxmox LXC 方案,相比 VM 更轻量,相比 Docker 更像一个完整的 OS,方便调试。
硬件需求
- 平台:Proxmox VE (PVE)
- 资源:
- CPU: 2 Cores (建议)
- RAM: 2GB - 4GB (如果跑本地 Ollama 模型需要更多)
- Disk: 10GB+
三、保姆级部署步骤
我们使用 Proxmox 社区脚本 (Proxmox VE Helper-Scripts) 或者是手动创建一个 Ubuntu/Debian LXC。为了通用性,这里演示标准 Ubuntu LXC 的手动部署流程(社区脚本原理类似)。
Step 1: 创建 LXC 容器
在 Proxmox 界面:
- 点击 Create CT。
- Template: 选择
ubuntu-22.04-standard。 - Resources: 2 Core, 2GB RAM, 8GB Disk。
- Network: 建议给一个静态 IP (Static IP),方便后续 SSH。
- Unprivileged: 取消勾选(Privileged 容器在某些挂载场景下更方便,视安全需求而定,新手建议先 Privileged 跑通)。
启动容器并进入 Console。
Step 2: 环境初始化
OpenClaw 依赖 Bun (一个超快的 JS 运行时)。
1# 更新系统
2apt update && apt upgrade -y
3apt install -y curl unzip git
4
5# 安装 Bun
6curl -fsSL https://bun.sh/install | bash
7
8# 配置环境变量 (让 bun 命令生效)
9source /root/.bashrc
Step 3: 一键安装 OpenClaw
官方提供了一键安装脚本,非常省心。
1curl -fsSL https://openclaw.ai/install.sh | bash
安装完成后,运行 onboarding 向导:
1openclaw onboard
Step 4: 配置向导 (Onboarding)
向导会引导你完成核心配置:
Model Provider (模型提供商):
- OpenAI / Anthropic: 需要 API Key(推荐,稳定且聪明)。
- Ollama: 如果你有高性能显卡,可以填本地 Ollama 地址(免费,但费电)。
- 我使用的是 Google Gemini Pro (通过 API),性价比很高。
Channel (聊天渠道):
- 推荐 Telegram。
- 找 Telegram 的
@BotFather申请一个 Bot Token。 - 填入向导即可。
Step 5: 验证运行
安装完成后,OpenClaw 的网关服务会自动启动。 你可以使用 TUI (终端界面) 来查看状态:
1openclaw tui
或者直接在 Telegram 里给你的机器人发一句:Hello。
如果它回复了,恭喜你,你的私人贾维斯上线了!🎉
四、进阶配置:让它“持久化”
1. 进程守护
确保 LXC 重启后 OpenClaw 能自动复活。 检查 systemd 服务状态:
1systemctl --user status openclaw-gateway
注:OpenClaw 默认注册为用户级服务。
2. 挂载持久化存储 (可选)
如果你希望它的“记忆”(Memory.md)和配置在容器销毁后还在,建议通过 Proxmox 的 Bind Mount 把宿主机目录挂载进 LXC。
五、避坑指南 ⚠️
- 网络问题: 如果国内网络环境拉取 GitHub 或 npm 慢,记得给 LXC 配置 HTTP Proxy,或者换源。
- API 额度: 虽然 OpenClaw 自身开源免费,但调用的 OpenAI/Claude 是按量计费的。初期建议设置 Usage Limit,防止聊嗨了钱包受不了。
- 安全性: 不要把 OpenClaw 的 Dashboard 端口 (默认 18789) 暴露在公网!最好配合 Tailscale 或 VPN 使用。
结语
部署 OpenClaw 只是第一步。真正的乐趣在于调教它。 你可以教它写代码、教它管理日程、甚至教它帮你回邮件。
它不完美,但它属于你。 在 AI 越来越封闭的今天,拥有一个跑在自家服务器上的 AI Agent,本身就是一种赛博浪漫。
Happy Hacking! 🚀