无限研究 — 应用层
3 · 应用聚焦 —— 无限研究(Infinite Research)
第 3 篇 · 共 6 篇 · 阅读约 7 分钟
如果说 ChatGPT 是和一位聪明朋友的对话,那么 Infinite Research(无限研究) 更像是雇了一支小型研究团队,让他们沿着每一条线索一路追问, 直到追到底。
你输入一个问题。系统把这个问题派给一个 AI 工人, 拿回一段回答外加 3 个后续问题, 然后再派 3 个新的工人去分别调研每个后续问题 —— 每一个又会产出 3 个新问题,如此循环。 几分钟之内,你就有一棵互相串联、可浏览的分析、来源、子问题之树。
这篇文章解释这种体验是什么感觉、它实际上对什么任务有用、 以及目前还有哪些不完善的地方。
基本形状
界面就是一个文本框。你输入一个问题。然后看着一棵可视化的树长出来。
[你的问题]
│
┌─────────────────┼─────────────────┐
▼ ▼ ▼
[后续问题 1] [后续问题 2] [后续问题 3]
│ │ │
┌────┼────┐ ┌────┼────┐ ┌────┼────┐
▼ ▼ ▼ ▼ ▼ ▼ ▼ ▼ ▼
...
默认深入 4 层。每层 3 个后续问题,就是 3 + 9 + 27 + 81 = 120 个子问题 围绕一个根问题被回答。
听起来很多。确实多。 但大多数根问题不需要这么多分支 —— 系统内置了去重,不会把几乎相同的问题研究两遍, 而且很多分支会判断 “这块已经饱和了,没有值得追的新后续”, 然后自己停下来。
实际操作中,一次典型的研究跑下来会产出 30–80 个子问题, 耗时 15–40 分钟,模型费用大约在 10 美分到 1 美元之间。
用起来是什么感觉
举一个真实的例子。昨天我输入:
“未来 12 个月,中美贸易紧张会如何影响半导体行业?”
5 秒钟内,第一个 AI 工人开始分析这个问题。 屏幕上出现一个节点,标着我的问题,带着 “正在研究” 的状态图标。 一个小型的实时计数器显示有多少任务在排队、在跑、已完成。
两分钟后,根节点变绿了。AI 给出了:
- 一段 4 段式的分析,涵盖供应链风险、CHIPS 法案的相关性、 台湾的战略位置、可能的政策响应
- 18 个引用来源,带能打开的真实 URL(我点了几个验证过)
- 3 个后续问题:
- “对先进光刻设备的出口管制, 2026 年怎样影响中国晶圆厂的扩产?”
- “过去这一季,在汽车和消费电子供应链上, 出现了哪些二阶效应?”
- “如果紧张升级,哪些非美半导体公司 最有可能抢到市场份额?”
这几个问题立刻又各自派生出自己的研究任务。 3 个新节点出现在树上,都是 “排队” 状态。 10 秒之内变成 “运行中”, 接下来 6–8 分钟里,它们各自产出了自己 4 段式的分析、来源、3 个子问题。
树继续长。有些分支深到 4 层, 有些只到 2 层就停了,因为 AI 判断再往下的问题不够实质。
总计:47 分钟。回答了 76 个子问题。聚拢了 200 多个独立来源。 总成本:0.83 美元。
我把整棵树导出成一份 38 页的 Markdown 文档, 小节嵌套结构和树的结构对应。第二天早上配着咖啡读完了。
它擅长什么
我发现有三类问题,它真的有价值:
1. “我想理解一个我陌生的领域”
效果好的例子:
- “预测市场到底是怎么运作的?”
- “现代货币政策有哪些主要学派?”
- “2026 年机器人领域的主流路线有哪些?”
这棵树的结构,模仿的是人学习一个新领域的方式 —— 先有大背景,再钻入具体细节。 读完之后,你不仅有一张心智地图, 还有一份 30 页的、带来源的参考文档。
2. “我想扫一下某个市场里的机会”
效果好的例子:
- “AI 产业链上有哪些投资机会?” (这个问题派生出 1000 多个子任务才被我手动停下 —— 比我想象的更丰富的话题)
- “未来 5 年,廉价机器人会让哪些行业受益?”
- “围绕垂直 AI 出现了哪些新的商业模式?”
这种广度优先的递归方式,会浮出一些你压根没想到要问的角度。
3. “我想要一份文献综述的快速初稿”
效果好的例子:
- “神经符号 AI 目前进展到哪一步了?”
- “2026 年各国央行在 CBDC 上做了哪些试验?”
- “长上下文 LLM 记忆机制的最新研究”
你拿到的不是一篇打磨好的学术综述, 但你拿到了一张带引用的 “领域地形图”, 而这正是开始一份正经综述时最难的部分。
它 不 擅长什么
老实说一下:
-
实时数据。AI 工人能搜网,但它们的回答只反映搜索那一刻看到的东西。 对于变化很快的话题(实时行情、突发新闻),用专门的工具更好。
-
数值计算。如果你问 “算一下这个情景下的 IRR”, 你会拿到一段关于 IRR 是什么的散文式讨论, 而不是一个由输入算出来的数字。这是研究工具,不是计算器。
-
原创观点。AI 在综合已有材料。 它不会给你一个别处找不到的、与众不同的反共识观点。
-
核实。来源是真的,但 AI 对来源的解读未必总对。 对于高风险决策, 把输出当成一份精挑细选的阅读清单,而不是引用级的参考。
那些不显眼但很重要的用户体验细节
有几个一眼看不出来,但实际用起来差别很大的设计:
暂停和续跑。 一次研究会话可能跑几个小时。你不想盯着它。 系统在后台跑 —— 你可以关浏览器,明天回来,从中断的地方继续。 也可以中途暂停,一旦觉得 “看到这里够了”。
并发控制。 界面上有个滑块,让你设定多少 AI 工人并行。 更多 = 更快但更贵。默认是 3。
实时进度。 每个工人完成时,树会实时更新。 你看到绿色节点不断出现、排队数下降、结构慢慢填满。 看着出奇地上瘾。
逐节点细看。 点击任意节点,可以看到它完整的回答、来源、它的后续问题。 点击一个来源 URL 可以读原文。
导出。 把整棵树下载成一份 Markdown 文件。按顺序遍历整棵树, 生成目录,每个来源都包含在内。 适合离线阅读,或者喂给另一个工具。
幕后(用一段话讲 “怎么做到的”)
每个研究问题被派给负载均衡器认为最合适的那个 AI 工人。 工人读取问题,按一个固定格式生成结构化回答, 平台从中解析出 答案 + 来源 + 后续问题。 每个后续问题变成一个新任务,以同样方式派出去。 一小段数学(向量嵌入)会跑在每个新问题上, 在派生之前先过滤掉重复的。 树存在数据库里;答案和来源存在云端对象存储里。 界面每 6 秒轮询一次数据库,刷新你看到的东西。
就这样。没有 AI 在做编排 —— 编排部分是普通代码。 AI 负责思考;平台负责管路。
这改变了我的工作方式
我以前做研究的方式和大多数人一样 —— 谷歌、开 30 个标签页、读几个小时、做笔记、综合。
现在我输入一个问题,走开半个小时,回来时已经有一棵结构化的树。 我读我感兴趣的部分;我忽略其他部分。 想深挖某个子问题时,我点进去看。综合的工作已经做完了。
变化的不是速度(研究依然要花时间)。 是 起步阶段的摩擦力大幅下降。 “白纸恐惧” 基本消失了, 因为等我坐下来思考时,我已经有了一个起点。
这就是关键:不是 “AI 取代研究” —— 而是 “AI 移走了开始那一下的能量代价”。
我还在搞的开放问题
-
质量校准。有些分支又深又有用,有些只是浅层重复。 我还在琢磨如何让系统更倾向于产出 “高杠杆” 的子问题。
-
跨会话记忆。两次相关主题的研究会话,目前彼此并不知道对方存在。 搭一个把它们连起来的知识图谱,在路线图上。
-
人在回路里的引导。目前系统是自主跑的。 我希望能在中途说 “不,这条分支放弃, 那条再深挖一点”,而不需要重启。
这些都是值得有的问题。解决它们是接下来一年的工作。
下一篇文章讲同一个底层平台上的另一个、更聚焦的应用 —— 一个专门的 AI 投研团队,叫做 AI Institute(智研所)。
上一篇: 它如何运作 · 下一篇: 应用聚焦 —— 智研所