|

闲置手机养龙虾:邪修OpenClaw私有部署心得

一、开篇:为什么用闲置手机养龙虾?

好久未更,今天想跟大家聊聊我是怎么把抽屉里吃灰的旧手机(一台索尼Xperia,原生安卓手机),变成一台24小时在线的AI助手的。

所谓”养龙虾”,其实就是部署OpenClaw——一个优秀的开源AI代理框架。网上各种安装教程多如牛毛,各路牛鬼蛇神把小白绕得晕头转向。为什么要用闲置手机干这个?四个理由:

  1. 变废为宝:谁家里没几台换下来的旧手机?卖不了几个钱,放着又可惜。骁龙芯片的算力拿来跑AI代理,绰绰有余。
  2. 私有部署:数据存在自己手里,不用上传到别人的服务器,隐私有绝对保障。而且可以带出门!
  3. 安全隔离:旧手机专门跑AI,跟你的主力机完全分开。就算跑偏了或者出了什么Bug,也不会影响到日常使用。
  4. 省电耐用:ARM架构的手机长时间开机其实非常省电(功耗通常在2W-5W之间),比24小时开着电脑或传统NAS跑AI划算多了。

当然还有第五个理由:穷。

二、硬件准备:让旧手机安全长寿

手机要长期24小时插电开机,必须解决电池老化和发热问题。闲话少说,这两天折腾下来,马老师总结了几个关键的硬核细节:

1. 电池保护:Xperia的隐藏福利

锂电池长期满电极容易鼓包。Xperia用户在这里有巨大的天然优势:

  • 电池保养功能:可以在系统设置里把充电上限死死卡在80%甚至90%,大幅度延长电池寿命。
  • H.S.发热抑制(重点!):如果你是用Xperia玩游戏过来的,一定知道这个神仙功能。插上充电器后,系统可以直接给主板供电而不经过电池。这意味着你的手机变成了一台无电池发热损耗的微型主机,挂机一整个月都是冰凉的!

2. 调试神器:ADB与蓝牙键盘

在手机上敲长串命令行,触摸屏太痛苦了。配一个轻便的蓝牙薄膜键盘,效率直接翻倍。同时,强烈建议开启手机的USB调试/无线调试。利用电脑上的ADB命令行一键搞定批量复制粘贴、装包,绝对是降维打击。

3. CPU唤醒锁:拒绝强制休眠

Android系统为了省电,息屏后会让CPU休眠。为了保证OpenClaw随时响应,必须在Termux中开启唤醒锁:

termux-wake-lock

开启后,下拉通知栏会看到Termux显示”Wake lock held”,这样手机就不会睡死过去了。

三、环境搭建:跨越杀后台的痛点

整个部署流程是:Android系统 -> Termux容器 -> Ubuntu子系统 -> OpenClaw。这样层层嵌套,相当于给系统上了多层沙箱隔离保险。

第一步:安装Termux并解决“幽灵进程”杀后台

(注意:Google Play版本的Termux已经停止维护,务必从F-Droid下载。) 要知道,这两天最大的痛点就是应用老是莫名其妙崩溃。这是因为Android12+引入了Phantom Process Killer(幽灵进程杀手),会限制子进程数量。必须用电脑ADB连上手机,执行以下命令彻底解除限制:

adb shell device_config put activity_manager max_phantom_processes 2147483647
adb shell settings put global settings_enable_monitor_phantom_procs false

执行完重启手机,你的Termux就能稳如老狗了。

然后更新源:

pkg update && pkg upgrade

第二步:在Termux里装Ubuntu

proot-distro一键无痛安装:

pkg install proot-distro
proot-distro install ubuntu
proot-distro login ubuntu

现在你就有了一个完整的纯正Ubuntu环境。

第三步:安装OpenClaw

按照官方文档走:

# 安装Node.js
apt update && apt install -y nodejs npm

# 安装OpenClaw
npm install -g openclaw

# 初始化配置
openclaw init

配置好飞书或微信等聊天平台的Webhook,你的AI助手就能接收指令了。

四、技能选择:轻量级API优先

手机资源有限,不是所有Skills(技能)都适合跑。但是你不要羡慕别人在桌面跑,开浏览器模拟鼠标填表,这些隐患很大。马老师的核心原则是:能用API解决的,绝不开浏览器。

为什么不推荐前端浏览器类Skills? 有些不懂行的小朋友会羡慕别人调用Puppeteer打开Headless Chrome抓取网页。马老师告诉你,这在手机上绝对是灾难:

  1. 资源占用极高:跑满内存,手机瞬间发热卡顿。
  2. 极不稳定:即使解除了后台限制,由于OOM(内存溢出)也容易被系统干掉。
  3. Token消耗大:抓取下来的HTML代码杂乱无章,处理起来极其浪费大模型的Token。

推荐方案:API直调 比如用Brave Search API代替浏览器抓取:

curl -s "[https://api.search.brave.com/res/v1/web/search?q=QUERY](https://api.search.brave.com/res/v1/web/search?q=QUERY)" \
  -H "Accept: application/json" \
  -H "Accept-Encoding: gzip" \
  -H "X-Subscription-Token: $BRAVE_SEARCH_API_KEY" \
  | gunzip

返回的是干净的结构化JSON,轻量、快速、极省Token。

如果遇到必须执行JavaScript才能看到内容的动态网页(比如某些单页应用SPA),千万不要在手机上装无头浏览器。强烈推荐使用Jina Reader APIhttps://r.jina.ai/)。只需要把目标网址拼在Jina的链接后面,它就会在云端帮你完成渲染,并直接返回干净、极其适合大模型阅读的Markdown文本。既免费,又完美避开了手机端的性能瓶颈。

马老师目前在用的Skills清单:

技能名称用途资源占用备注
Brave Search网络搜索API直连,返回结构化数据
Tavily Search深度搜索适合需要综合整理的搜索需求
OpenViking向量知识库核心记忆中枢
trafilatura-fetch网页正文提取纯文本提取,抛弃臃肿的HTML
self-improving自我反思让AI总结对话经验

都是轻量级、API为主的技能,骁龙处理器跑起来毫无压力。

五、知识库建设:Obsidian+GitHub+OV的完美闭环

养龙虾最重要的是什么?知识库。如果没有知识库,你的AI助手就像一条只有7秒记忆的鱼。这也是为什么马老师坚持要把OpenViking(简称OV)部署在Ubuntu虚拟环境里。

我的整个知识管理工作流是这样的:本地Obsidian -> GitHub云端 -> Xperia上的OV向量库 -> OpenClaw调用。具体怎么连通的呢?我们来捋一捋。

1. 本地书写:Obsidian Vault

我的个人知识库(Vault)是建立在PC端(或主力机)的Obsidian上的。无论是平时的学习笔记、收集的行业研报,还是网上的好文章,我都统一用Markdown格式存在Obsidian里。纯文本不占空间、无冗余标签,且结构清晰,极其节省Token。

2. 云端桥梁:GitHub私有仓库

在Obsidian里安装Obsidian Git插件,把整个Vault自动同步到一个私有的GitHub仓库中。这不仅仅是为了云端备份,更是为了给手机端的数据流转做桥梁。

马老师还为Chrome特别写了一个Extension。

3. 碎片抓取:自制Chrome插件一键剪藏

除了系统性的笔记,平时上网看到的好文章怎么办?马老师专门开发了一个Chrome插件,可以把网页正文一键转为Markdown格式并直接推送到私有GitHub仓库中。看到干货点一下,这只赛博龙虾的知识库就自动同步更新了。(插件地址)

你可以自动从网页内容解析出MarkDown格式的文本,一键智能排版,再一键上传
你可以自动从网页内容解析出MarkDown格式的文本,一键智能排版,再一键上传

4. 虚拟环境部署:OV与数据自动同步

在Xperia的Termux/Ubuntu环境中,我们需要跑通数据流:

  • 第一步:把GitHub上的知识库仓库git clone到Ubuntu的本地目录(比如/root/knowledge_base)。可以写一个简单的crontab定时任务,或者配置Webhook,让它自动git pull拉取最新笔记。
  • 第二步:在这个Ubuntu环境里部署OpenViking。将OV的监听目录(Directory Loader)指向刚刚clone下来的本地知识库文件夹。
  • 第三步:OV会自动扫描这个文件夹里的所有Markdown文件,调用阿里云的text-embedding-v4(免费额度管够)将文本切片并转化为向量,存储在手机本地的向量数据库中(如ChromaDB或SQLiteVSS)。

5. 真实使用场景还原

这套闭环跑通后,体验是极其惊艳的。 场景:比如我在电脑的Obsidian里存了一份长达万字的《2026年AI行业研报》,一键推送到GitHub。此时我出门了,Xperia作为服务器一直装在口袋里或包里。 在外面和客户聊业务时,我突然需要查研报里的某个数据,直接通过飞书向这台手机里的OpenClaw发问:”根据我的知识库,2026年AI代理有什么新趋势?”

后台流转

  1. OpenClaw收到指令,分析出需要查询知识库,调用本地的OV技能(Skill)。
  2. OV在Ubuntu本地瞬间完成向量检索,从万字研报中精准揪出最相关的3段话。
  3. OV把这3段话返回给大模型。
  4. 大模型根据这3段话总结出精炼的回答,发到我的微信上。

不用全量阅读万字长文,Token省了一大半,响应是毫秒级的。

六、进阶心得:随身携带、安全与省钱

之前有小朋友跑来问马老师要不要搞内网穿透(比如Tailscale)。我后来全部去掉了,因为毫无意义。这可是手机啊!它最大的优势就是自带电池、自带4G/5G网络、体积小巧。你完全可以插着充电宝把它直接扔在包里随身携带。出门在外,它依然是你最坚实的私有大脑,压根不需要公网IP和内网穿透。

1. 安全防护

  • 物理隔离:这本身就是最大优势,不登主力账号,不存私人照片。
  • 权限控制:设置”Human in the loop”,敏感操作(发邮件、发推特、修改仓库)必须向你发送确认请求。
  • 密钥管理:所有API Key只存环境变量,绝不硬编码在文件里,相关配置文件权限设为chmod 600

2. 抠门(省钱)策略总结

策略效果
Markdown代替HTML节省50%+Token
向量检索代替全文读取节省70%+Token
API代替无头浏览器减少冗余内容,节省60%+计算量与Token
白嫖免费额度Brave Search、Tavily API免费额度日常绝对够用

省下来的Token钱,拿去买更聪明的大模型API额度,体验直线上升。

七、结语:为什么不用Mem0?以及旧手机的无限可能

写到这里,肯定会有被各种AI概念绕得晕头转向的同学问:马老师,为什么不用Mem0这类主流的记忆或知识库插件? 原因很简单:太重了。Mem0确实强大,但它通常依赖PostgreSQL、Redis等复杂的数据库组件。在手机这种计算资源受限、ARM架构的环境下强行跑完整的企业级中间件,无异于自寻死路。不仅容易OOM(内存溢出),还会导致设备严重发热。我们追求的是轻量级可用,这也是为什么马老师选择Markdown加本地OV向量库这种“土办法”,简单、极低占用,且完全足够个人使用。

另外,虽然我整篇文章都在拿Xperia举例,但这套方案绝不局限于索尼。 无论你抽屉里躺着的是小米、一加、三星还是其他品牌,只要是一台拥有相对现代骁龙芯片的退役手机,它的算力用来跑纯API驱动的AI代理都绝对是性能过剩的。Xperia的旁路充电固然加分,但其他手机配合智能插座(比如设置电量低于20%开启充电、高于80%断电),一样能完美实现24小时挂机。

说到底,OpenClaw在闲置手机上的成功部署,证明了一件事:轻量环境+优秀大脑=无限可能。 你不需要昂贵的服务器,不需要复杂的网络配置。一台旧安卓机,一个Termux,再加上一点点折腾的精神,就能拥有一个24小时在线、不仅有长记忆还能随身携带的专属AI助手。

题外话:旧iPhone能用来养龙虾吗?

肯定有拿着吃灰iPhone的小白要问了:马老师,我那台电池一天三充的iPhone6s能用来养龙虾吗?马老师劝你趁早死心。苹果那个被吹上天的“墓碑机制”和极度封闭的“围墙花园”,对常驻后台的服务简直就是赶尽杀绝。除非你愿意冒着极速耗电和系统崩溃的风险去越狱(Jailbreak),否则在iOS上跑原生Node.js环境无异于痴人说梦。App Store里虽然有iSH这类模拟器,但跑跑简单的脚本还行,真要用来做24小时响应的大脑,性能和稳定性连三流安卓机都打不过。老iPhone最好的归宿,要么是挂在闲鱼上回点血,要么配个支架当桌面时钟。玩极客开源部署,还是得看安卓的开放生态。

数据在自己手里,隐私有绝对保障;技能按需组装,资源绝不浪费。如果你也有一台退役手机,不妨周末充上电试试看。在这个AI时代,养一只属于自己的赛博”龙虾”,真的很香!

类似文章