AI 内容工厂:一个人怎么做到日更三平台

AI 内容工厂:一个人怎么做到日更三平台
2025 年中,有人问我:你一个人怎么每天都有内容出来?
那时候我正在同时运营三个业务、管理一人独角兽俱乐部 700 人社群,还在做 JewelFlow 的产品迭代。我没有内容团队,没有运营助理,写稿、排版、发布、数据复盘——表面上都是我在做。
实际上,75% 的执行工作是 AI 流水线完成的。我只做剩下那 25%。
这篇文章拆解这套内容工厂的具体搭法:什么触发了它、怎么设计的、用了哪些工具、踩了哪些坑。
背景:内容产出为什么变成了瓶颈
我做内容有明确的商业目的:引流到 JewelFlow 的试用注册、给一人独角兽俱乐部持续带新成员、以及建立 Jessie Qin 这个品牌在 AI 创业圈的认知度。
2025 年初,我每周大约发 3–4 篇内容,主要集中在 LinkedIn。流量不差,但覆盖太窄。
问题是:要做到多平台日更,光靠"多写"是行不通的。一篇 1500 字的 LinkedIn 长文,我写完要两到三个小时。改成 Twitter 适合的格式再花 40 分钟,公众号排版再花半小时,加上研究素材的时间,一篇内容的总工时轻松超过 4 小时。
4 小时 × 每天 = 不可能。
所以问题从一开始就不是"怎么多写",而是:哪些环节根本不需要我亲自写?
答案是:研究、初稿、格式转换、排期——这四件事,没有一件需要我的判断力,只需要有人去执行。
系统设计:内容流水线的四个环节
我把一篇内容从想法到发布分成四个阶段,每个阶段对应一个或多个 AI 节点。
话题库 ──► 研究 Agent ──► 起草 Agent ──► 格式转换 Agent ──► 排期发布
│
质检 Agent(评分 < 75 退回修改)
整条链路的数据流是结构化 JSON,这样每个节点可以独立替换,不影响上下游。
环节一:话题库管理
这是唯一完全靠我手动维护的部分,也是整套系统的质量上限。
我在 Notion 里维护一个话题库,分六个系列:AI 工具对比、公司拆解、Agent 框架解析、每日洞察、一人创业 + AI、热观点。每个系列对应不同平台的受众和内容调性。
每周日晚,我花 30–40 分钟做下周选题,写下每个话题的核心观点和我想说的 1–2 个具体案例。这是我真正在"想"的时间,其他时间都在执行。
话题库里目前存了 300+ 个待写选题,覆盖接下来大约四个月的内容。这个储备让我可以在某天完全没有新想法的时候,系统照常运转。
环节二:研究 Agent
触发方式:手动或定时批量触发,每次处理 5–10 个话题。
任务:针对每个话题,做定向网络搜索,拉取最新数据点、相关工具的定价信息、竞品对比数据、近期行业事件。输出是一份结构化的研究简报,500–800 字,JSON 格式。
工具:Perplexity API(联网搜索)+ Claude claude-sonnet-4-6(信息整理和去重)。
举一个具体例子:话题"Notion AI vs Obsidian + AI 插件对比"。研究 Agent 自动抓取两个工具的最新定价、主要功能更新日志、Reddit 和 Product Hunt 上的用户评价摘要,以及两个工具的适用场景定义。这份简报如果我手动做,至少一小时。Agent 跑下来大约 3 分钟。
环节三:起草 Agent + 质检 Agent
研究简报进入起草 Agent 后,生成三个版本的内容:
- LinkedIn 长文(800–1200 字中文,附英文版)
- Twitter 主帖(280 字以内,附 5–8 条展开 thread)
- 公众号版(1500–2000 字,加段落小标题、加互动问题)
三个版本不是互相翻译,是针对不同平台受众重写。LinkedIn 读者更偏职场专业人士,重框架和数据;Twitter 要求密度高、第一句就要钩住人;公众号读者来自一人独角兽俱乐部,要有更多具体操作细节。
起草完成后,质检 Agent 打分,维度包括:信息密度、观点清晰度、与 Jessie 品牌调性的匹配度、是否有具体数据支撑。总分 100,低于 75 的退回修改,修改上限两轮,两轮后标记为人工审阅。
工具:Claude claude-sonnet-4-6(起草 + 质检)。
说明:起草 Agent 的 prompt 调了很久,主要是在解决两个问题——不能太"AI 腔"(什么"众所周知"、"毋庸置疑"),也不能太模板化(每篇格式一模一样)。现在的版本我跑了大约 60 篇内容来校准,过审率在 80% 左右,剩下 20% 我会过眼改两句。
环节四:格式转换与排期发布
质检通过的内容进入最后一个环节:格式化 + 自动排期。
LinkedIn 版本加 YAML frontmatter,标记话题、日期、平台、字数;Twitter 版本拆分成可直接粘贴的格式;公众号版本加排版标记(加粗、分隔符)。
排期逻辑是:优先保证每个平台每天有一条内容。Twitter 量最大,每天 1–2 条主帖;LinkedIn 每天一篇,工作日为主;公众号每周 3–4 篇。
工具:n8n(工作流编排)+ Buffer(Twitter/LinkedIn 排期)+ 手动推送公众号(公众号 API 对个人账号限制多,还没找到完全自动的方案)。
工具栈与成本
| 场景 | 工具 | 月费 | 备注 |
|---|---|---|---|
| 联网研究 | Perplexity API | ~$8 | 按量计费,每月约 500 次查询 |
| 起草 + 质检 | Claude API(claude-sonnet-4-6) | ~$22 | 包含所有起草、质检、修改调用 |
| 工作流编排 | n8n(自托管) | $8(服务器) | Railway 上跑 |
| 排期发布 | Buffer | $15 | Twitter + LinkedIn 双平台 |
| 话题库 + 内容存档 | Notion | $0(个人计划) | |
| 合计 | 约 $53/月 |
这 $53/月支撑了三个平台、每天合计 2–4 条内容、每月约 80–100 篇内容的产出量。如果换成人工——哪怕是最初级的内容助理——光是北京的市场行情也要 5,000–8,000 元/月起。
实际数据
系统稳定跑了大约五个月,几个关键数据:
产出量:月均 92 篇内容(Twitter 帖子 + LinkedIn 长文 + 公众号文章合计),峰值月份达到 117 篇。2025 年初手动写的时候,月均 18 篇。
我实际花的时间:每周平均 3.5 小时在内容上。包括:周日选题 35 分钟、每天快速过一遍质检输出大约 15 分钟、每周公众号手动推送约 40 分钟。
数据表现:LinkedIn 月度浏览量从 2025 年初的约 12,000 增长到现在的 41,000,主要是发布频率提升带来的。Twitter 的情况更直接,从不稳定更新(有时一周没有新帖)变成每日更新后,账号 30 天内粉丝净增 1,200。
质量维持率:起草 Agent 的首次过审率约 80%,二次修改后综合过审率 93%。剩下 7% 我过眼改一改,没有内容因为质量问题直接废掉过。
踩坑记录
坑一:起草 Agent 早期"过度优化"每一篇
最开始写 prompt 的时候,我把很多风格要求加进去:要有具体数字、要有对比、要有个人经验、要有可操作步骤……结果 Agent 每篇都按这个模板来,读者很快能感受到格式感。
修改方向:减少强制性要求,改成"优先"项和"可选"项。让 Agent 根据话题特性自己判断用哪些手法。灵活之后,格式感降了,内容的差异化反而更明显。
坑二:三个平台版本互相"借用"句子
曾经发现 LinkedIn 版本和公众号版本有整段相似,读者如果同时关注两个平台会觉得被重复喂。
原因是起草 prompt 里没有明确禁止内容复用,Agent 有时候会直接把一个版本的段落略作修改搬到另一个版本。
修改方法:在 prompt 里加了明确约束:三个版本必须从不同角度切入,至少 60% 的句子不得雷同。简单粗暴,但有效。
坑三:话题库枯竭时的应急方案没想好
有一周我选题做得比较少,话题库里剩下的都是我暂时没想清楚观点的话题。Agent 跑出来的内容质量明显下降——因为研究简报有数据、有案例,但没有明确的观点作为锚点,起草出来的东西就成了资料汇编,而不是有态度的内容。
现在的应对方式:话题库低于 30 个时我会收到通知,提醒补充选题。同时给每个话题加了一个必填字段:"我的核心观点是什么",逼着自己在进库前把这件事想清楚。
坑四:把公众号排期完全托管给工具
试过用第三方工具托管公众号推送,结果有一次推送失败没有任何通知,当天内容白跑了。公众号的算法对发布时间比较敏感,错过就是错过。
现在公众号我坚持手动推,一周三四次,10 分钟的事。自动化不是目标,稳定交付才是。
系统的边界:什么是 AI 不能替我做的
我不把选题判断交给 AI。什么话题值得写、观点从哪个角度切入、哪个案例最能说明问题——这些判断直接决定内容质量,也是我对读者最核心的价值。
我不把互动回复交给 AI。LinkedIn 评论、Twitter 回帖、公众号留言——这些我都亲自回。内容是我的声音,互动是我真实存在的证明。如果用 AI 回复评论,读者早晚会感觉出来,信任一旦失去很难重建。
我不追求"零人工"。每周 3.5 小时不是我努力压缩到的极限,而是我有意保留的人工介入时间。自动化的目的是把我的时间解放到更有价值的地方,不是把我从内容里彻底抽离。
给想搭类似系统的人
起步不需要这么复杂。我的建议是:
第一步,先跑通一个平台的全流程。选你最活跃的那个平台,把从研究到发布的完整流程用 AI 辅助跑一遍,哪怕用最简单的 ChatGPT 对话也行。感受一下哪些环节最费时,那个就是第一个值得自动化的点。
第二步,把你的声音固化成 prompt。这是最关键也最难的一步,没有捷径。你需要拿十篇自己觉得写得好的历史内容,认真分析:我习惯怎么开头、我的句子节奏是什么、我怎么用数据、我怎么举例——然后把这些特征写进 prompt 里。这个过程要花时间,但一旦固化,每篇新内容都有基准。
第三步,在成本上给自己设个上限。我的内容流水线跑到 $53/月,是有意识控制的结果。AI 工具很容易越用越多,在看不清 ROI 之前,建议设个预算上限,强迫自己只保留真正有效的工具。
一人独角兽俱乐部里有不少成员在做内容,最常见的问题是"没有时间写"。多数情况下,真正的瓶颈不是时间,而是每一篇都从零开始。
系统能解决的,是那个从零开始的摩擦。剩下的,还是得靠你自己的判断力。
你目前的内容产出流程里,哪个环节最卡?