Solo Unicorn Club logoSolo Unicorn
2,190

我的 AI 学习系统 — 每天 30 分钟跟上 AI 行业

一人公司SolopreneurAI学习知识管理NotebookLMPerplexity
我的 AI 学习系统 — 每天 30 分钟跟上 AI 行业

我的 AI 学习系统 — 每天 30 分钟跟上 AI 行业

2025 年一整年,AI 行业发生了多少事?

粗略统计:Anthropic 发了 Claude 4 系列,OpenAI 推了 GPT-5 和 o3,Google 出了 Gemini 2.5,Meta 开源了 Llama 4。Agent 框架从概念变成产品——AutoGen、CrewAI、LangGraph 都进入了生产环境。多模态成了标配,推理模型成了新赛道。

如果你在 AI 行业工作或者用 AI 做生意,跟不上这些变化意味着你在用过时的工具解决今天的问题。但跟上这些变化的传统方式——每天花 2-3 小时读论文、刷 Twitter、看博客——对一人公司的创始人来说时间成本太高了。

我的解法:搭一套 AI 辅助的学习系统,把信息收集和初步筛选自动化,我只负责最后的"吸收和决策"环节。每天 30 分钟,从不遗漏关键信息。


背景:信息焦虑是怎么产生的

2024 年,我还在大厂的时候,跟进 AI 行业靠的是三个渠道:Twitter 刷信息流、订阅 10 个 Newsletter、偶尔看论文。问题是:

信息量在指数增长,但我的时间是线性的。 2024 年初,我每天花 1 小时就能覆盖关键信息。到年底,同样的覆盖度需要 2.5 小时。到 2025 年中,我开始有选择性地跳过某些领域——然后在一次客户对话中被问到一个我完全不知道的新工具,非常尴尬。

刷信息流 ≠ 学习。 我发现自己每天刷了 50 条推文,但第二天能记住的不到 5 条。信息流过脑子但没留下来。原因很简单:刷的时候没有主动加工,只是被动接收。

2025 年 6 月,我决定重新设计自己的学习系统。核心思路:让 AI 负责"收集、筛选、摘要",我只负责"理解、关联、应用"。


核心方法:三层过滤

第一层:自动收集——让信息主动来找我

我不再主动刷 Twitter 和博客。取而代之的是一套自动化信息收集管道:

RSS 订阅 + n8n 自动化:我用 Feedly 订阅了 47 个信息源——包括 Arxiv 的 cs.AI 和 cs.CL 分类、主要 AI 公司的博客(Anthropic、OpenAI、Google DeepMind、Meta AI)、6 个高质量 Newsletter、以及 15 个我信任的独立博主。n8n 每天早上 6 点自动抓取所有更新,通常是 80-120 条内容。

Claude API 做初步筛选:80-120 条全看不现实。n8n 工作流调用 Claude Haiku 对每条内容做快速分类:高相关(和我的业务或技术栈直接相关)、中相关(行业趋势类)、低相关(噪音)。Prompt 里我定义了明确的规则——什么算高相关、什么算低相关。筛选后通常留下 15-25 条高中相关内容。

输出到 Notion:筛选结果自动写入 Notion 的"每日信息流"数据库,按日期排列,包含标题、摘要(Claude 自动生成的 2-3 句话)、原文链接、相关度标签。

这一层完全自动化,零人工投入。

第二层:深度消化——30 分钟的主动学习

每天早上 8:30,我打开 Notion 的"每日信息流",花 30 分钟做三件事:

快速扫描(5 分钟):看所有高中相关条目的标题和摘要。大部分内容看摘要就够了——"OpenAI 发布了 XX 功能"、"Anthropic 更新了 XX API"。这些信息我需要知道,但不需要深入读原文。

深度阅读(15 分钟):从中挑 2-3 篇需要认真读的。判断标准只有一个:这篇内容是否会影响我未来一个月的产品决策或技术选型。符合这个标准的,打开原文仔细读。

论文处理(10 分钟):如果有相关论文,我用 NotebookLM 处理。把 PDF 上传到 NotebookLM,让它生成摘要和关键发现。NotebookLM 的 Audio Overview 功能特别好用——它会把论文内容变成一段 10-15 分钟的"播客式讲解"。我通常在午饭或运动时听,利用碎片时间消化。

对于特别复杂的论文,我会用 Claude 做交互式阅读。把论文丢进去,然后逐段提问:"这个方法和 XX 的区别是什么?"、"这个结论在什么条件下成立?"、"这对我正在做的 XX 有什么启发?"。这种对话式阅读比自己从头到尾读一遍效率高 3-5 倍。

第三层:知识沉淀——从"知道了"到"能用了"

读过不等于学到了。最关键的一步是把新信息和自己的知识体系关联起来。

我的做法是每周五花 20 分钟写一篇"周度学习笔记"——不是对这周信息的摘要(那是 AI 做的),而是回答三个问题:

  1. 这周最重要的一个变化是什么?
  2. 这个变化对我的业务/产品有什么具体影响?
  3. 我是否需要因此调整任何决策?

这篇笔记写给自己看,通常 300-500 字。重点不在于写得多好,在于强迫自己做"信息 → 判断"的转化。被动吸收信息不产生价值,主动用信息做决策才产生价值。

这些笔记积累下来,也成了一人独角兽俱乐部月度分享的素材来源——很多成员告诉我,我的行业洞察分享是他们加入社群的主要原因之一。


工具栈详解

场景 工具 月费 为什么选
RSS 订阅 Feedly Pro $6 AI 辅助分类,Board 功能方便整理
工作流自动化 n8n(自托管) $8 跑在 VPS 上,串联 RSS → Claude → Notion
初步筛选 Claude Haiku API ~$3 每天处理 100 条,Haiku 便宜($0.25/M 输入)且速度快
论文消化 NotebookLM Plus $20 论文摘要 + Audio Overview。含在 Google One AI Premium 里
深度问答 Claude Pro $20(已在用) 交互式论文阅读、技术问题分析
快速搜索 Perplexity Pro $20 需要查某个具体信息时用。实时联网 + 引用来源
知识库 Notion(个人计划) $0 每日信息流 + 周度笔记
合计 约 $40/月(不计已在用的 Claude Pro 和 Perplexity Pro) 核心新增成本仅 Feedly + n8n + Haiku API = $17

注意:Claude Pro($20)和 Perplexity Pro($20)我做其他事情也在用,不是专门为学习系统订阅的。如果只算学习系统的增量成本,其实只有 $17/月。


实际数据

系统运行 9 个月的数据(2025.6 - 2026.2):

指标 搭系统前 搭系统后
每天信息跟进时间 2-2.5 小时 30 分钟
每周深度阅读论文数 1-2 篇 4-5 篇
错过关键行业事件次数(月) 2-3 次 0 次
信息源覆盖数 15 个 47 个
知识利用率(读过后用到的比例) ~10% ~35%

最后一个指标"知识利用率"怎么算的:每月底我回顾当月做的产品决策和客户对话,数一下有多少次是因为之前学到的东西直接帮助了我。搭系统前大约 10%——读了很多但用到的很少。搭系统后提升到 35%,核心原因是第三层"周度学习笔记"强迫我把信息和业务关联起来了。

一个具体的例子:2025 年 11 月,我的信息流里抓到了一篇关于 Anthropic 推出 Tool Use 功能的博客。我读完后立刻意识到这个功能可以替代 JewelFlow 里我自己写的一个复杂的 function calling 模块。第二周我就做了迁移,代码量减少 40%,稳定性提升明显。如果没有这套系统,我可能两三周后才从 Twitter 上偶然看到。


踩坑经验

坑一:信息源加得太多,噪音比信号大

最初我订阅了 80 多个 RSS 源。结果每天 200+ 条更新,Claude 筛出来的"高相关"有 40-50 条——根本看不完。

我花了一周做信息源审计:把每个源过去一个月的内容质量打分,砍掉了得分低于 60 分的 35 个源。现在 47 个源,每天 80-120 条更新,筛选后 15-25 条。量级对了才可执行。

教训:信息源的质量 > 数量。10 个高质量源好过 50 个平庸的源。

坑二:Claude 的筛选 prompt 需要持续调教

最初的筛选 prompt 太粗糙——"与 AI 行业相关"这个标准太宽泛,几乎所有内容都被标为高相关。

后来我把规则细化了:高相关必须满足三个条件中的至少一个——a) 与我正在使用的技术栈(Python、FastAPI、Claude API、Vercel)直接相关;b) 影响超过 10,000 名开发者的平台级变化;c) 我所在的垂直领域(珠宝零售、奢侈品)的 AI 应用案例。

规则细化后,高相关的准确率从 55% 提升到 82%。

坑三:NotebookLM 的 Audio Overview 有时候漏掉关键细节

Audio Overview 非常方便,但它是摘要性质的,对论文里的技术细节(数学公式、实验设置)覆盖不够。我有过一次在和客户讨论技术方案时引用了 Audio Overview 里的结论,但忽略了原论文中一个重要的限制条件,差点误导了方案设计。

教训:Audio Overview 适合快速了解论文大意,但如果要用论文的结论做决策,必须回去读原文的实验部分和 limitations 部分。


给想开始的人的建议

第一步:确定你的"信息目标"。

你跟进行业信息是为了什么?做产品决策?找新商机?避免技术栈过时?不同的目标决定不同的信息源和筛选规则。没有明确目标的信息收集等于在 Twitter 上无目的地刷——花了时间但没有收获。

第二步:从 Perplexity + NotebookLM 开始,不需要搭自动化。

最简版本:每天早上打开 Perplexity,问它"过去 24 小时 AI 行业最重要的 3 件事是什么"。有感兴趣的论文就丢进 NotebookLM。这两个工具加起来月成本 $20(只要 Perplexity Pro),就已经能覆盖 60% 的需求。自动化管道是进阶玩法,先确认你能坚持每天 30 分钟再搭。

第三步:写周度笔记,不要只是消费信息。

这一步看起来最不重要,实际上是最重要的。不写笔记的信息收集就像不做笔记的听课——当时觉得都听懂了,一周后忘得干干净净。300 字就够,关键是回答"这对我有什么用"。


写在最后

每天 30 分钟,$40/月,覆盖 47 个信息源,深度消化 4-5 篇论文/周,零遗漏关键信息。

这套系统的核心不是工具有多先进,是一个认知转变:学习的瓶颈不是信息获取,是信息处理。 AI 行业的信息量已经超过了任何人手动处理的上限。用 AI 帮你做"收集和筛选",把你有限的脑力用在"理解和应用"上——这才是高杠杆的学习方式。

一人独角兽俱乐部里我做过一次"AI 学习系统工作坊",分享了这套方法。会后有十几个成员搭了自己的版本,其中一位做跨境电商的成员告诉我,他用类似的系统跟进供应链和平台政策变化,每天节省了 1.5 小时。场景不同,方法通用。

你现在每天花多少时间跟进行业信息?如果超过 1 小时,可能是时候让 AI 帮你做前置工作了。