Solo Unicorn Club logoSolo Unicorn
2,214

AI 内容工厂:一个人怎么做到日更三平台

一人公司内容创作AI多平台独立创业
AI 内容工厂:一个人怎么做到日更三平台

AI 内容工厂:一个人怎么做到日更三平台

2025 年中,有人问我:你一个人怎么每天都有内容出来?

那时候我正在同时运营三个业务、管理一人独角兽俱乐部 700 人社群,还在做 JewelFlow 的产品迭代。我没有内容团队,没有运营助理,写稿、排版、发布、数据复盘——表面上都是我在做。

实际上,75% 的执行工作是 AI 流水线完成的。我只做剩下那 25%。

这篇文章拆解这套内容工厂的具体搭法:什么触发了它、怎么设计的、用了哪些工具、踩了哪些坑。


背景:内容产出为什么变成了瓶颈

我做内容有明确的商业目的:引流到 JewelFlow 的试用注册、给一人独角兽俱乐部持续带新成员、以及建立 Jessie Qin 这个品牌在 AI 创业圈的认知度。

2025 年初,我每周大约发 3–4 篇内容,主要集中在 LinkedIn。流量不差,但覆盖太窄。

问题是:要做到多平台日更,光靠"多写"是行不通的。一篇 1500 字的 LinkedIn 长文,我写完要两到三个小时。改成 Twitter 适合的格式再花 40 分钟,公众号排版再花半小时,加上研究素材的时间,一篇内容的总工时轻松超过 4 小时。

4 小时 × 每天 = 不可能。

所以问题从一开始就不是"怎么多写",而是:哪些环节根本不需要我亲自写?

答案是:研究、初稿、格式转换、排期——这四件事,没有一件需要我的判断力,只需要有人去执行。


系统设计:内容流水线的四个环节

我把一篇内容从想法到发布分成四个阶段,每个阶段对应一个或多个 AI 节点。

话题库 ──► 研究 Agent ──► 起草 Agent ──► 格式转换 Agent ──► 排期发布
                                            │
                                       质检 Agent(评分 < 75 退回修改)

整条链路的数据流是结构化 JSON,这样每个节点可以独立替换,不影响上下游。

环节一:话题库管理

这是唯一完全靠我手动维护的部分,也是整套系统的质量上限。

我在 Notion 里维护一个话题库,分六个系列:AI 工具对比、公司拆解、Agent 框架解析、每日洞察、一人创业 + AI、热观点。每个系列对应不同平台的受众和内容调性。

每周日晚,我花 30–40 分钟做下周选题,写下每个话题的核心观点和我想说的 1–2 个具体案例。这是我真正在"想"的时间,其他时间都在执行。

话题库里目前存了 300+ 个待写选题,覆盖接下来大约四个月的内容。这个储备让我可以在某天完全没有新想法的时候,系统照常运转。

环节二:研究 Agent

触发方式:手动或定时批量触发,每次处理 5–10 个话题。

任务:针对每个话题,做定向网络搜索,拉取最新数据点、相关工具的定价信息、竞品对比数据、近期行业事件。输出是一份结构化的研究简报,500–800 字,JSON 格式。

工具:Perplexity API(联网搜索)+ Claude claude-sonnet-4-6(信息整理和去重)。

举一个具体例子:话题"Notion AI vs Obsidian + AI 插件对比"。研究 Agent 自动抓取两个工具的最新定价、主要功能更新日志、Reddit 和 Product Hunt 上的用户评价摘要,以及两个工具的适用场景定义。这份简报如果我手动做,至少一小时。Agent 跑下来大约 3 分钟。

环节三:起草 Agent + 质检 Agent

研究简报进入起草 Agent 后,生成三个版本的内容:

  1. LinkedIn 长文(800–1200 字中文,附英文版)
  2. Twitter 主帖(280 字以内,附 5–8 条展开 thread)
  3. 公众号版(1500–2000 字,加段落小标题、加互动问题)

三个版本不是互相翻译,是针对不同平台受众重写。LinkedIn 读者更偏职场专业人士,重框架和数据;Twitter 要求密度高、第一句就要钩住人;公众号读者来自一人独角兽俱乐部,要有更多具体操作细节。

起草完成后,质检 Agent 打分,维度包括:信息密度、观点清晰度、与 Jessie 品牌调性的匹配度、是否有具体数据支撑。总分 100,低于 75 的退回修改,修改上限两轮,两轮后标记为人工审阅。

工具:Claude claude-sonnet-4-6(起草 + 质检)。

说明:起草 Agent 的 prompt 调了很久,主要是在解决两个问题——不能太"AI 腔"(什么"众所周知"、"毋庸置疑"),也不能太模板化(每篇格式一模一样)。现在的版本我跑了大约 60 篇内容来校准,过审率在 80% 左右,剩下 20% 我会过眼改两句。

环节四:格式转换与排期发布

质检通过的内容进入最后一个环节:格式化 + 自动排期。

LinkedIn 版本加 YAML frontmatter,标记话题、日期、平台、字数;Twitter 版本拆分成可直接粘贴的格式;公众号版本加排版标记(加粗、分隔符)。

排期逻辑是:优先保证每个平台每天有一条内容。Twitter 量最大,每天 1–2 条主帖;LinkedIn 每天一篇,工作日为主;公众号每周 3–4 篇。

工具:n8n(工作流编排)+ Buffer(Twitter/LinkedIn 排期)+ 手动推送公众号(公众号 API 对个人账号限制多,还没找到完全自动的方案)。


工具栈与成本

场景 工具 月费 备注
联网研究 Perplexity API ~$8 按量计费,每月约 500 次查询
起草 + 质检 Claude API(claude-sonnet-4-6) ~$22 包含所有起草、质检、修改调用
工作流编排 n8n(自托管) $8(服务器) Railway 上跑
排期发布 Buffer $15 Twitter + LinkedIn 双平台
话题库 + 内容存档 Notion $0(个人计划)
合计 约 $53/月

这 $53/月支撑了三个平台、每天合计 2–4 条内容、每月约 80–100 篇内容的产出量。如果换成人工——哪怕是最初级的内容助理——光是北京的市场行情也要 5,000–8,000 元/月起。


实际数据

系统稳定跑了大约五个月,几个关键数据:

产出量:月均 92 篇内容(Twitter 帖子 + LinkedIn 长文 + 公众号文章合计),峰值月份达到 117 篇。2025 年初手动写的时候,月均 18 篇。

我实际花的时间:每周平均 3.5 小时在内容上。包括:周日选题 35 分钟、每天快速过一遍质检输出大约 15 分钟、每周公众号手动推送约 40 分钟。

数据表现:LinkedIn 月度浏览量从 2025 年初的约 12,000 增长到现在的 41,000,主要是发布频率提升带来的。Twitter 的情况更直接,从不稳定更新(有时一周没有新帖)变成每日更新后,账号 30 天内粉丝净增 1,200。

质量维持率:起草 Agent 的首次过审率约 80%,二次修改后综合过审率 93%。剩下 7% 我过眼改一改,没有内容因为质量问题直接废掉过。


踩坑记录

坑一:起草 Agent 早期"过度优化"每一篇

最开始写 prompt 的时候,我把很多风格要求加进去:要有具体数字、要有对比、要有个人经验、要有可操作步骤……结果 Agent 每篇都按这个模板来,读者很快能感受到格式感。

修改方向:减少强制性要求,改成"优先"项和"可选"项。让 Agent 根据话题特性自己判断用哪些手法。灵活之后,格式感降了,内容的差异化反而更明显。

坑二:三个平台版本互相"借用"句子

曾经发现 LinkedIn 版本和公众号版本有整段相似,读者如果同时关注两个平台会觉得被重复喂。

原因是起草 prompt 里没有明确禁止内容复用,Agent 有时候会直接把一个版本的段落略作修改搬到另一个版本。

修改方法:在 prompt 里加了明确约束:三个版本必须从不同角度切入,至少 60% 的句子不得雷同。简单粗暴,但有效。

坑三:话题库枯竭时的应急方案没想好

有一周我选题做得比较少,话题库里剩下的都是我暂时没想清楚观点的话题。Agent 跑出来的内容质量明显下降——因为研究简报有数据、有案例,但没有明确的观点作为锚点,起草出来的东西就成了资料汇编,而不是有态度的内容。

现在的应对方式:话题库低于 30 个时我会收到通知,提醒补充选题。同时给每个话题加了一个必填字段:"我的核心观点是什么",逼着自己在进库前把这件事想清楚。

坑四:把公众号排期完全托管给工具

试过用第三方工具托管公众号推送,结果有一次推送失败没有任何通知,当天内容白跑了。公众号的算法对发布时间比较敏感,错过就是错过。

现在公众号我坚持手动推,一周三四次,10 分钟的事。自动化不是目标,稳定交付才是。


系统的边界:什么是 AI 不能替我做的

我不把选题判断交给 AI。什么话题值得写、观点从哪个角度切入、哪个案例最能说明问题——这些判断直接决定内容质量,也是我对读者最核心的价值。

我不把互动回复交给 AI。LinkedIn 评论、Twitter 回帖、公众号留言——这些我都亲自回。内容是我的声音,互动是我真实存在的证明。如果用 AI 回复评论,读者早晚会感觉出来,信任一旦失去很难重建。

我不追求"零人工"。每周 3.5 小时不是我努力压缩到的极限,而是我有意保留的人工介入时间。自动化的目的是把我的时间解放到更有价值的地方,不是把我从内容里彻底抽离。


给想搭类似系统的人

起步不需要这么复杂。我的建议是:

第一步,先跑通一个平台的全流程。选你最活跃的那个平台,把从研究到发布的完整流程用 AI 辅助跑一遍,哪怕用最简单的 ChatGPT 对话也行。感受一下哪些环节最费时,那个就是第一个值得自动化的点。

第二步,把你的声音固化成 prompt。这是最关键也最难的一步,没有捷径。你需要拿十篇自己觉得写得好的历史内容,认真分析:我习惯怎么开头、我的句子节奏是什么、我怎么用数据、我怎么举例——然后把这些特征写进 prompt 里。这个过程要花时间,但一旦固化,每篇新内容都有基准。

第三步,在成本上给自己设个上限。我的内容流水线跑到 $53/月,是有意识控制的结果。AI 工具很容易越用越多,在看不清 ROI 之前,建议设个预算上限,强迫自己只保留真正有效的工具。


一人独角兽俱乐部里有不少成员在做内容,最常见的问题是"没有时间写"。多数情况下,真正的瓶颈不是时间,而是每一篇都从零开始。

系统能解决的,是那个从零开始的摩擦。剩下的,还是得靠你自己的判断力。

你目前的内容产出流程里,哪个环节最卡?