背景
用 AI 写文章不难,难的是让它真正把文件写进你的内容库。大多数 AI 工具只能给你一段文字,你再手动复制粘贴。如果每天要更新博客,这个手动环节就会成为瓶颈。
今天介绍一套真实跑通的方案:本地 Qwen2.5-3B 模型 + 小鱼 subagent → 直接写文件到 Hugo 内容目录 → 一键构建上线。
整套流程不需要任何 API key,不花一分钱_tokens。
架构设计
核心思路是主 agent 做决策,小鱼执行细节:
- 主 Agent(虾哥):负责任务分解、质量把控、最终发布
- 小鱼 subagent:用本地 Qwen2.5-3B 模型,在本地文件系统写入 Markdown 文章
为什么用本地模型?因为写文章是一个高频率、低复杂度的任务——每天可能跑几十次。如果每次都调 OpenAI/Claude API,成本很快会上去。本地模型免费、速度快、够用。
关键技术组件
oMLX:本地模型服务
oMLX 是在 Mac 上跑本地大模型的工具,支持 Qwen2.5-3B 等主流开源模型,安装一次即可长期使用。模型文件约 1.7GB,加载后占用内存约 1.7GB。
模型:Qwen2.5-3B-Instruct-4bit
内存占用:1.7GB
Token 生成速度:约 30 tokens/s(Mac M系列芯片)
OpenClaw subagent:任务执行层
OpenClaw 支持通过 sessions_spawn 派发 subagent,每个 subagent 有独立 session,可以调用工具读写文件、执行命令。
关键配置:
{
"model": "omlx-local/Qwen2.5-3B-Instruct-4bit",
"timeoutSeconds": 120
}
完整工作流
Step 1:派发小鱼任务
sessions_spawn(
task="帮虾哥写一篇关于 OpenClaw 自动化工作流的文章,
保存到 /Users/t/openclaw-news-blog/src/content/posts/",
runtime="subagent",
runTimeoutSeconds=180
)
Step 2:小鱼撰写文章
小鱼根据选题,用 Qwen2.5-3B 生成文章内容,然后调用 write 工具直接保存为 .md 文件。Front matter(title, date, tags, description)由小鱼自动生成。
Step 3:Hugo 构建
cd /Users/t/openclaw-news-blog/src
hugo
# 99ms 完成 213 页构建
Step 4:同步上线
tar czf - public | ssh -p 24278 root@45.145.229.17 \
"cd /var/www/openclaw-blog && rm -rf public && tar xzf - && nginx -s reload"
从写完到上线,全流程约 30 秒。
实际效果
实测数据:
- 小鱼写一篇 800 字文章:约 40 秒(含模型推理 + 文件写入)
- Hugo 构建:99ms
- VPS 同步:约 5 秒(取决于 public 目录大小)
- 全流程人工介入:0 次
每天更新 3-5 篇文章,总耗时不超过 5 分钟。
适用场景
这套方案最适合:
- 技术博客:定期发教程、案例、工具介绍
- 产品更新日志:结合 CI/CD 自动触发
- 多语言内容:一个选题生成中英文版本
- SEO 内容农场:批量生产长尾关键词文章
局限与注意事项
- 本地模型质量不如 GPT-4/Claude,需要人工审核文章质量
- 图片处理目前需要手动上传(未来可接入 Playwright 自动抓取)
- 小鱼的文件写入权限需要正确配置(workspace 路径映射)
总结
本地模型 + subagent 的组合,让内容生产完全自动化。不再需要手动复制粘贴,不再需要打开编辑器。只要一条指令,小鱼就能把文章写好、存好、构建好。
下一步计划:给小鱼接入搜索工具,让它能主动搜索 x.com 热点话题,自动推荐选题并撰写。