Yohei Nakajima 的内部 AI 投后工具——一个 GP 自己搭的 portfolio dashboard
「深思 SenseAI」转述并解读 Yohei Nakajima 的 Q1 2026 LP Session thread。Yohei 白天是 Untapped Capital 的 GP,晚上是 BabyAGI 的作者(2023 年那个让大家第一次直观看到「AI 自己给自己排任务」的开源项目)。每季度他会给 LP 开一次 AI Session,复盘这季度 AI 圈发生了什么、他们在用什么、在试什么。Q1 这场刚开完,缩略版发到 Twitter,作者把它完整看了一遍。
文章前半截是趋势播报,后半截是 Yohei 自己搭的投后监控工具。作者明确说后半段才是值钱的东西。
趋势那一截:信号还是表演
编程模型的进化。Q4 编程模型整体大幅提升,2026 年 1 月初出现了「并行跑 Claude Code」的热潮——一台机器同时跑好几个 agent,各自处理不同任务,交付速度快了几倍。ClawdBot 1 月末突然爆。Yohei 把推动力归成三件事:模型本身变强 + 自己买 Mac Mini 当服务器变成常见操作 + 工具接入口变多(不只是网页,还有 API、各种 channel)。门槛突然低了一大截,以前要搭 agent 系统得有云服务器和基础设施背景,现在很多人在家里跑。
Anthropic 和美国国防部那单。2 月那一周国内外科技媒体铺天盖地。Yohei 的判断很冷静:这只是一个客户。真正有价值的是附带的消费者认知度拉升——App Store 排名第一、上了《时代》周刊封面。这是一种曝光,不太可能换三年的营收,但对品牌渗透是一次有效放大。典型 VC 视角:不看单次事件,看它对长期指标的影响。
Mythos 没发。OpenAI 把竞争对手的激进发布定性成「恐惧营销」(fear marketing),同时自己的 Mythos 模型迟迟没发,官方说法是「太危险了」。紧跟着是国防部相关讨论,还有特朗普那句「有可能把他们拉回来」。Yohei 没明确下判断,但把这几件事排在一起——意思是整个 AI 行业在安全和速度之间的张力,Q1 开始变得更明显。
Q1 大模型厂商的发布跟投后公司高度重叠。他列了 Codex Desktop(并行编程)、Claude 的 Managed Agents + Agents SDK 升级、Codex Security(代码安全审查)……然后说:这些方向,他在自己的投资组合里都见过类似的早期公司在做。“创业护城河”在缩小,能做这些事的不只是创业公司,大模型厂商自己也在往这个方向走。原话是:「这感觉已经不是一个趋势了,这是我们预期会发生的事情正在发生。」这句话信息量比表面多。
Claude Design。他专门用一节讲,因为「太喜欢了」——这场 LP 季报 deck 本身就是用 Claude Design 做的。他描述底层架构是:Claude Code + 一套对「输入有什么」(字体、Logo、品牌色等)和「输出是什么」(幻灯片、设计文档)都有明确 ontology(本体论,可以理解为”对一类对象的结构化定义”)的框架,再配一套匹配的 UI。每个 ontology 下面应该是一批专门的 agent 在执行。让他喜欢的原因是——它知道你想要什么,而不是给你一个空白画布让你自己摸索。Yohei 被几个人夸字体好看,他回「那是 Claude Design 的功劳,不是我的」。
种子轮估值。简单带过:大机构历来把种子轮当期权购买,现在往这个阶段砸钱更多了。
投后工具:三件套粘出来的 dashboard
趋势说完,他切换话题:「介绍一下我们最近做的投后数据监控工具。」放出来大量截图。作者认为这是整个 thread 里最值得深想的部分。
数据源是三个工具:Attio(CRM,投后公司的结构化信息)+ Gmail(和创始人的往来邮件,里面是大量非结构化的更新、报告、问题)+ Granola(AI 会议笔记工具,开会自动生成的摘要和行动项)。这三个工具基本就是 VC 的完整工作面。以前它们孤立——要了解一家投后公司的最新情况,得手动去三个地方翻,再在脑子里整合。现在这套工具自动读取三个数据源,用 AI 提取数据点,按时间轴聚合成每家公司的视图,定量(收入、烧钱速度、跑道)和定性(情绪、关键挑战、最近进展)放在一起。
作者在这里停了一下点评:Attio、Gmail、Granola 各有各的 UI 和数据格式,没有人告诉 Yohei 「它们应该这样连起来」,是他自己决定的——我的数据在这三个地方,AI 应该能整合起来。几年前这种想法,实现代价太高,大多数人想完就算了。现在想法和实现之间的距离缩短到 Yohei 能自己搭出来这套系统。这个缩短本身,比任何具体功能都重要。
总览表:可信度内嵌
第一张大截图是投后公司总览表。所有被投公司列在行里,列包括:收入、月烧钱额、跑道、账上现金、累计融资额、当前融资状态、互动次数、引荐次数、情绪评分、数据新鲜度评分。表格可以按任意列排序。
数据不是手填的,是 AI 从三个源里读出来的。
「数据新鲜度评分」是个细节但不小:它告诉你这个数字上次更新是什么时候,如果很久没刷新,你知道要主动去问。这是一个可靠性指标,直接内嵌到表里——你看一眼表就知道哪些数字可信、哪些该问问。
单公司页面:KPI 分析 + 数据溯源 + Ignore 按钮
单个公司页面两张截图。
第一张概览:财务数据 + KPI 分析(系统自动给出的判断,不只是数字)+ 创始人的 Asks(他们在求什么帮助)+ 近期的 Wins(进展)+ Challenges(挑战)+ 完整时间线。这基本上就是一个 VC 在开投后会议之前应该掌握的全部信息,但它是自动生成的。
第二张是数据点溯源。点一个具体的数字,能看到它的完整历史:什么时候第一次出现、从哪里来(某封邮件的某段话、某次 Granola 笔记)、原始表述是什么、系统怎么把它归一化成标准的年化和月度格式。
旁边有一个 Ignore 按钮——这个数据点不准确或不应被计入,直接忽略,从分析里排除。
作者在这里给了整篇文章里最值得记的一段评论:
现在很多人用 AI 生成数据,但不给用户一个「质疑入口」。数据看起来很全,但你不知道它是哪来的,也不知道能不能信。数据溯源 + 人工干预,是让 AI 生成的系统真正变得可信的两个关键机制,很多产品都少做这一块。
Ignore 这个按钮看上去很小,但它解决的是一个很大的信任问题:你对这个系统的信任,是建立在「我知道我可以纠正它」的基础上的,而不是建立在「我相信它永远是对的」。后者不可能存在,前者让工具变得真正可用。
三个 Dashboard
融资 Dashboard:一眼看出谁在融资、谁在考虑融资、各家的跑道情况。VC 的直接价值——你在一张图上就能看到「哪些公司快没弹药了」,可以提前主动接触,而不是被动等创始人来找你。
互动 Dashboard:我和哪些公司互动了、互动频率是多少、哪些已经很久没联系。让一件以前依赖记忆和感觉的事情变成可量化的——VC 的时间怎么分配,数据说话。
累计收入图表:整个投资组合的年化收入增长曲线,合并在一张图,纵轴是累计数字。Yohei 说刚开始玩这类聚合视角的图表。对 LP 来说这是一个很清晰的答案:你投的这些公司,加在一起,在往哪个方向走?
Check-in Campaign:用数据开头降低信任成本
Yohei 原话:「我从来没有发过定期 check-in 邮件。」原因很具体——他觉得如果不告诉创始人「我知道你最近情况怎样」,发一封「最近怎么样」的邮件会显得他根本没在关注,只是走流程。这个顾虑很真实:创始人很忙,每收到一封 VC 的泛泛 check-in 邮件都是一次干扰。
现在他可以这样做:系统自动生成一封邮件,内容是「你上次跟我更新是某月某日,你当时提到了 X 数字,这是我现在存档的最新信息,如果已经更新了麻烦告诉我」。用数据来开头,创始人马上知道这不是走流程,是真在跟踪。Yohei 说 response rate 很不错。
作者把这个功能抽象成一条通用原则:
如果你能在开口之前先展示你已经知道了什么,对方的信任成本会大幅降低。这不只是 VC 和创始人之间适用,销售、客户关系、任何需要定期 follow up 的场景都一样。
75% 的 Asks 都是要引荐
所有 Asks 提取到一处后能统一分析。结论:75% 的 Asks 都是关于「能不能帮我认识某类人」——不是产品建议,不是融资策略,是人脉引荐。
作者说这个比例不意外——VC 最核心的价值之一就是网络,引荐是最高频的需求。但一直以来这件事是靠 VC 的个人记忆和主观判断来处理的,过程不系统,严重依赖 VC 自己的时间和精力。Yohei 说下一步想看能不能把这部分自动化,提到了一个外部产品 happenstance 在测试。
成本:$500–$1000 / 月
有人评论里问 Claude tokens 一个月烧多少。Yohei 答:大约 $500 到 $1000,加上所有 AI 工具。然后补一句:比那些整天并行跑编码 agent 的人少多了。
作者评论:这个数字是一个很好的锚点。从数据抽取到 Dashboard、check-in 邮件生成、Asks 分析——这套系统每月实际花费 $500-$1000。这不是什么豪华研究项目,是一套工作基础设施。
作者收尾的几个角度
角度一:参与者 vs 旁观者。大多数 VC 写 AI 趋势报告是旁观者:我观察到了什么,我判断什么会发生。Yohei 这个 thread 不一样——他不只是在说「AI 会改变 VC 行业」,他在说「我已经在用 AI 改变了我的工作方式,这是截图,这是实际体验,这是花了多少钱」。这个区别比任何趋势判断都实在。
角度二:谁来整合数据。这套工具的数据源是三个已经存在的系统,没人给 Yohei API 文档或官方集成,是他自己用 AI 把它们连在一起的。这本身是一个论断:不是等工具厂商告诉你怎么用,是自己决定数据怎么流。以前这种整合需要工程师、需要时间、需要钱;现在一个 GP 自己就能搭出来。
角度三:VC 内部的信息不对称。作者最后挑了一个角度——这套工具解决的不是创始人和 VC 之间的信息不对称,是 VC 自己内部的信息不对称:那些已经在系统里的数据,你其实没有真正在用。Gmail 邮件没时间翻完;Granola 笔记记了但很少回看;Attio 字段更新不及时。这些数据名义上是你的,但你决策时其实大量依赖印象和感觉。AI 做的事,就是把你已经有的数据变成你实际能用的工具。这不是「AI 替代了什么」的故事,是「AI 让已有的资产开始真正工作」的故事。
飞轮。Yohei 在 thread 最后说:「每季度做这种复盘,是整理自己思考的好方式,LP 们也挺喜欢的。」轻描淡写。但这个习惯积累下来,是一个和那些不做这件事的人越拉越远的飞轮。
拧巴 / 我的怀疑
- 75% 这个数字没说样本。Asks 总数多少?时间窗多长?是 Untapped Capital 一家的样本,还是泛 VC 行业?没有 N 的百分比,意义有限。
- 「数据新鲜度评分」具体怎么算没交代。是按上次更新时间的硬阈值?还是看更新频率的相对值?这个评分本身的可信度也值得问。
- Ignore 按钮 + 数据溯源作为「信任机制」描述很好听,但缺了一个角度:错误数据被 Ignore 之后,模型会不会回头改提取规则?还是只是这一次的本地排除?前者才叫闭环。
- 跨工具整合的数据一致性问题。Granola 笔记里的数字和创始人邮件里的数字冲突时,系统选哪一个?没说。这是 AI glue 类工具的核心难题之一,作者跳过了。
- 「响应率很不错」——具体多少?相对于什么基线?Yohei 自己以前从没发过 check-in,对照组是缺的。