OpenClaw 实战:在 Proxmox LXC 部署你的私人 AI 助理 (附保姆级教程)

AI 时代,除了跟 ChatGPT 聊天,我们还能做什么? 答案是:让 AI 真的帮你做事

这是一篇关于如何把 OpenClaw(前身 Moltbot / Clawdbot)部署到 Proxmox LXC 的实战记录。 没有复杂的 Docker 编排,没有昂贵的云服务器,只要一个轻量级的 LXC 容器,就能拥有一个帮你盯盘、写博客的 24 小时私人助理。


一、为什么要折腾这个?

市面上的 AI 很多,但大多数是“聊天机器人”。你问它答,聊完即止。 OpenClaw 的定位不同,它是一个 AI Agent (智能体)

它的杀手锏:

  1. 能干活:不仅仅是陪聊,它能调用工具(CLI, API, 浏览器)。
  2. 私有化:部署在你自己的 Proxmox 上,数据自己掌控。
  3. 多模态:支持 Telegram, Slack, WhatsApp 等多种渠道连接。

我的真实用法

为了证明它不是玩具,我举两个我现在正在用的场景:

场景 1:金融理财分析师 💰

我给 OpenClaw 设定了一个 cron 任务,每天中午股市收盘前:

  • 自动查询 VOO (美股) 和 VFV (加股) 的实时价格。
  • 读取 我存在本地的持仓成本文件。
  • 分析 今天的走势,结合我的定投策略(DCA),直接发 Telegram 告诉我:“今天跌了,建议买入 $500” 或者 “涨太多了,今天观望”。
  • 结果:我再也不用上班偷偷盯盘了。

场景 2:自动博客写作助理 ✍️

你现在看到的这篇文章,其实大半部分是 OpenClaw 帮我写的。

  • 我给它一个 GitHub Repo 权限。
  • 我扔给它一个选题和参考链接。
  • 它自动分析我的文风,写好 Markdown,甚至生成封面图,最后提一个 Pull Request 给我。
  • 我只要 Review 一下,点击 Merge,文章就发出来了。

二、部署环境准备

本次部署采用 Proxmox LXC 方案,相比 VM 更轻量,相比 Docker 更像一个完整的 OS,方便调试。

硬件需求

  • 平台:Proxmox VE (PVE)
  • 资源
    • CPU: 2 Cores (建议)
    • RAM: 2GB - 4GB (如果跑本地 Ollama 模型需要更多)
    • Disk: 10GB+

三、保姆级部署步骤

我们使用 Proxmox 社区脚本 (Proxmox VE Helper-Scripts) 或者是手动创建一个 Ubuntu/Debian LXC。为了通用性,这里演示标准 Ubuntu LXC 的手动部署流程(社区脚本原理类似)。

Step 1: 创建 LXC 容器

在 Proxmox 界面:

  1. 点击 Create CT
  2. Template: 选择 ubuntu-22.04-standard
  3. Resources: 2 Core, 2GB RAM, 8GB Disk。
  4. Network: 建议给一个静态 IP (Static IP),方便后续 SSH。
  5. Unprivileged: 取消勾选(Privileged 容器在某些挂载场景下更方便,视安全需求而定,新手建议先 Privileged 跑通)。

启动容器并进入 Console。

Step 2: 环境初始化

OpenClaw 依赖 Bun (一个超快的 JS 运行时)。

1# 更新系统
2apt update && apt upgrade -y
3apt install -y curl unzip git
4
5# 安装 Bun
6curl -fsSL https://bun.sh/install | bash
7
8# 配置环境变量 (让 bun 命令生效)
9source /root/.bashrc

Step 3: 一键安装 OpenClaw

官方提供了一键安装脚本,非常省心。

1curl -fsSL https://openclaw.ai/install.sh | bash

安装完成后,运行 onboarding 向导:

1openclaw onboard

Step 4: 配置向导 (Onboarding)

向导会引导你完成核心配置:

  1. Model Provider (模型提供商)

    • OpenAI / Anthropic: 需要 API Key(推荐,稳定且聪明)。
    • Ollama: 如果你有高性能显卡,可以填本地 Ollama 地址(免费,但费电)。
    • 我使用的是 Google Gemini Pro (通过 API),性价比很高。
  2. Channel (聊天渠道)

    • 推荐 Telegram
    • 找 Telegram 的 @BotFather 申请一个 Bot Token。
    • 填入向导即可。

Step 5: 验证运行

安装完成后,OpenClaw 的网关服务会自动启动。 你可以使用 TUI (终端界面) 来查看状态:

1openclaw tui

或者直接在 Telegram 里给你的机器人发一句:Hello。 如果它回复了,恭喜你,你的私人贾维斯上线了!🎉


四、进阶配置:让它“持久化”

1. 进程守护

确保 LXC 重启后 OpenClaw 能自动复活。 检查 systemd 服务状态:

1systemctl --user status openclaw-gateway

注:OpenClaw 默认注册为用户级服务。

2. 挂载持久化存储 (可选)

如果你希望它的“记忆”(Memory.md)和配置在容器销毁后还在,建议通过 Proxmox 的 Bind Mount 把宿主机目录挂载进 LXC。


五、避坑指南 ⚠️

  1. 网络问题: 如果国内网络环境拉取 GitHub 或 npm 慢,记得给 LXC 配置 HTTP Proxy,或者换源。
  2. API 额度: 虽然 OpenClaw 自身开源免费,但调用的 OpenAI/Claude 是按量计费的。初期建议设置 Usage Limit,防止聊嗨了钱包受不了。
  3. 安全性: 不要把 OpenClaw 的 Dashboard 端口 (默认 18789) 暴露在公网!最好配合 Tailscale 或 VPN 使用。

结语

部署 OpenClaw 只是第一步。真正的乐趣在于调教它。 你可以教它写代码、教它管理日程、甚至教它帮你回邮件。

它不完美,但它属于你。 在 AI 越来越封闭的今天,拥有一个跑在自家服务器上的 AI Agent,本身就是一种赛博浪漫。

Happy Hacking! 🚀

comments powered by Disqus

翻译: