背景

用 AI 写文章不难,难的是让它真正把文件写进你的内容库。大多数 AI 工具只能给你一段文字,你再手动复制粘贴。如果每天要更新博客,这个手动环节就会成为瓶颈。

今天介绍一套真实跑通的方案:本地 Qwen2.5-3B 模型 + 小鱼 subagent → 直接写文件到 Hugo 内容目录 → 一键构建上线

整套流程不需要任何 API key,不花一分钱_tokens。

架构设计

核心思路是主 agent 做决策,小鱼执行细节

  • 主 Agent(虾哥):负责任务分解、质量把控、最终发布
  • 小鱼 subagent:用本地 Qwen2.5-3B 模型,在本地文件系统写入 Markdown 文章

为什么用本地模型?因为写文章是一个高频率、低复杂度的任务——每天可能跑几十次。如果每次都调 OpenAI/Claude API,成本很快会上去。本地模型免费、速度快、够用。

关键技术组件

oMLX:本地模型服务

oMLX 是在 Mac 上跑本地大模型的工具,支持 Qwen2.5-3B 等主流开源模型,安装一次即可长期使用。模型文件约 1.7GB,加载后占用内存约 1.7GB。

模型:Qwen2.5-3B-Instruct-4bit
内存占用:1.7GB
Token 生成速度:约 30 tokens/s(Mac M系列芯片)

OpenClaw subagent:任务执行层

OpenClaw 支持通过 sessions_spawn 派发 subagent,每个 subagent 有独立 session,可以调用工具读写文件、执行命令。

关键配置:

{
  "model": "omlx-local/Qwen2.5-3B-Instruct-4bit",
  "timeoutSeconds": 120
}

完整工作流

Step 1:派发小鱼任务

sessions_spawn(
  task="帮虾哥写一篇关于 OpenClaw 自动化工作流的文章,
        保存到 /Users/t/openclaw-news-blog/src/content/posts/",
  runtime="subagent",
  runTimeoutSeconds=180
)

Step 2:小鱼撰写文章

小鱼根据选题,用 Qwen2.5-3B 生成文章内容,然后调用 write 工具直接保存为 .md 文件。Front matter(title, date, tags, description)由小鱼自动生成。

Step 3:Hugo 构建

cd /Users/t/openclaw-news-blog/src
hugo
# 99ms 完成 213 页构建

Step 4:同步上线

tar czf - public | ssh -p 24278 root@45.145.229.17 \
  "cd /var/www/openclaw-blog && rm -rf public && tar xzf - && nginx -s reload"

从写完到上线,全流程约 30 秒。

实际效果

实测数据:

  • 小鱼写一篇 800 字文章:约 40 秒(含模型推理 + 文件写入)
  • Hugo 构建:99ms
  • VPS 同步:约 5 秒(取决于 public 目录大小)
  • 全流程人工介入:0 次

每天更新 3-5 篇文章,总耗时不超过 5 分钟。

适用场景

这套方案最适合:

  1. 技术博客:定期发教程、案例、工具介绍
  2. 产品更新日志:结合 CI/CD 自动触发
  3. 多语言内容:一个选题生成中英文版本
  4. SEO 内容农场:批量生产长尾关键词文章

局限与注意事项

  • 本地模型质量不如 GPT-4/Claude,需要人工审核文章质量
  • 图片处理目前需要手动上传(未来可接入 Playwright 自动抓取)
  • 小鱼的文件写入权限需要正确配置(workspace 路径映射)

总结

本地模型 + subagent 的组合,让内容生产完全自动化。不再需要手动复制粘贴,不再需要打开编辑器。只要一条指令,小鱼就能把文章写好、存好、构建好。

下一步计划:给小鱼接入搜索工具,让它能主动搜索 x.com 热点话题,自动推荐选题并撰写。