Anthropic CEO 万字访谈:亲述丧父之痛、炮轰黄仁勋、揭秘指数定律与 AI 未来!

主持人:我们来回顾一下你这几个月的经历吧。

你曾说过,AI 可能会让一半的入门级白领工作消失;

得知 OpenAI 打算收购 Windsurf 时,你切断了 Windsurf 对 Anthropic 顶级模型的访问权限;

你还要求政府实施出口管制,结果惹恼了英伟达 CEO 黄仁勋。

你这到底是怎么了?

达里奥・阿莫迪:嗯,你知道,我觉得 Anthropic,包括我个人,一直都在坚持践行并说出我们真正相信的理念。

我认为,随着我们离那些更强大的 AI 系统越来越近,我希望能更用力、更公开地把这些理念讲清楚。这些年我一直在说,我们有 “规模法则”—— 这个我们可以详细聊 ——AI 系统的能力正在变得越来越强。几年前它们还几乎语无伦次,后来大概到了聪明初中生的水平;而现在,已经接近聪明的大学生、博士生水平,并且开始在整个经济体里得到应用。

所以我觉得,所有和 AI 相关的问题,从国家安全到经济影响,都开始变得非常现实,离我们越来越近了。因此,即便 Anthropic 已经谈论这些事有一段时间了,但随着这些问题越来越紧迫,我觉得有必要更大声地说出来。

而且,我希望能确保我们说出自己的真实想法,就未来可能出现的风险向世界发出警告。当然,没人能确切知道会发生什么,我们只是在说自己认为可能、甚至很可能发生的事,并且尽力用证据支撑观点 —— 尽管这些证据往往是基于对未来的推断,没人能百分之百确定。

但我认为,我们有责任就即将发生的事向世界发出警告。这并不是说我觉得 AI 没有大量积极应用,我一直在说这个,还写过一篇叫《充满慈爱的机器》的文章。

事实上,我觉得我和 Anthropic 往往比那些自称 “乐观主义者” 或 “加速主义者” 的人,更能说清 AI 的益处。所以我们可能比任何人都更懂这项技术的好处。但正因为如此,正因为如果一切顺利,我们有机会创造一个无比美好的世界,我才觉得有责任警示它的风险。

主持人:所以你做的这些事,都源于你对时间线的判断?看起来你比大多数人觉得时间更紧迫,所以才急于大声疾呼,因为你觉得一切都近在眼前。

达里奥・阿莫迪:是的。但我也不是百分之百确定。预测未来本来就很难,尤其是社会影响层面。比如人们什么时候会部署 AI?公司什么时候会在 AI 上投几十亿美元?或者 AI 什么时候会用于医疗突破?这些都不好说。底层技术的发展相对可预测些,但也有不确定性,没人能真正确定。

不过在底层技术层面,我开始越来越有信心了。当然,不确定性还是存在的。我觉得这条指数增长曲线完全有可能停滞 —— 大概有 20% 到 25% 的可能,未来两年内的某个时候,模型就停止进步了,可能是因为我们不理解的原因,也可能是数据、算力不够之类我们能理解的原因。到那时,我说的每句话都会显得很傻,所有人都会因为我发的那些警告嘲笑我。但考虑到我看到的各种可能性,我完全能接受这种结果。

主持人:我得说明一下,这次对话是我为你写人物特写的一部分。我已经和二十多位和你共事过、了解你、和你竞争过的人聊过了。但所有人都提到一个点:在所有主流实验室的负责人里,你对时间线的判断几乎是最短的。你刚才也提到了这一点。那为什么你的时间线这么短?我们又为什么要相信你的判断?

达里奥・阿莫迪:这得看你说的 “时间线” 具体指什么。

比如 AI 圈里有些流行词,像 AGI(通用人工智能)和超级智能。你会听到有些公司领导说 “我们已经实现了 AGI,正在向超级智能迈进”。

说实话,我觉得这些词毫无意义。我不知道什么是 AGI,也不知道什么是超级智能。它们听起来就像营销术语,是为了刺激人们的多巴胺设计的。所以你会发现,我在公开场合从不使用这些词,还会特意批评这种用法。指数定律,才是唯一真实的东西。

达里奥・阿莫迪:不过即便如此,我确实是对 AI 能力会极速提升这件事最乐观的人之一。我觉得唯一真实的就是那条指数曲线 —— 每隔几个月,我们就会得到一个比上一个更强的 AI 模型。之所以能做到这一点,是因为我们投入了更多算力、更多数据,还有更多新型训练方法。

一开始,这是通过 “预训练” 实现的,就是把互联网上的海量数据喂给模型。现在我们进入了第二阶段,也就是强化学习,或者叫测试时计算、推理之类的 —— 随便怎么称呼都行,我觉得这是一个涉及强化学习的阶段。现在这两个阶段都在同步扩展,我们从自己和其他公司的模型里都能看到这一点。

我没发现有什么能阻碍这种规模化继续发展。

当然也有一些问题,比如如何拓宽强化学习阶段的任务范围。我们已经看到模型在数学和代码方面进步很大,水平接近高级专业人士了,但在更主观的任务上进展少一些。但我觉得这只是暂时的障碍。

所以当我审视这一切时,我看到了这条指数曲线,然后就想:“你看,人类其实不擅长理解指数增长。” 对吧?如果某个东西每六个月翻一番,那在它真正爆发的两年前,看起来只完成了整个过程的十六分之一。

而我们现在就处在 2025 年年中,模型的各种能力正开始在经济领域爆发式增长。看模型性能,它们已经开始在所有基准测试中达到饱和;看营收,Anthropic 的营收每年都增长 10 倍。每年我们都保守地想 “不可能再增长 10 倍了”,结果 2023 年从 0 涨到 1 亿美元,2024 年从 1 亿涨到 10 亿,今年上半年就从 10 亿涨到了…… 到现在已经远超 40 亿,可能有 45 亿了。

你想想,如果这条指数曲线再持续两年 —— 我不是说一定,但如果真的持续,营收轻松就能到千亿级别。我想说的是,身处指数曲线上时,人很容易被迷惑。距离曲线变得彻底疯狂还有两年时,它看起来却像刚刚起步。

这就是最根本的动态。90 年代互联网发展时也是这样,当时网络速度和计算机性能都在快速提升,短短几年内就建成了全球数字通信网络,这在几年前是难以想象的。但那时候,除了少数人,几乎没人真正预见到它的意义和发展速度。

这就是我的出发点和思考方式。当然,我也不知道未来会怎样。比如一堆卫星坠毁,互联网发展可能就慢了;发生经济危机,也可能变慢。所以我们没法确定确切时间线,但我觉得人们正被指数曲线迷惑,没意识到事情可能 —— 我认为是很可能 —— 发展得有多快,尽管我也不确定。

主持人:但 AI 行业很多人都在说规模化会 “收益递减”,这和你描述的不太一样。他们错了吗?

达里奥・阿莫迪:是的。从我们看到的情况来看 —— 我只能说 Anthropic 的模型 —— 我觉得他们错了。

以代码为例,这是 Anthropic 模型进步很快的领域,市场采用率也高。我们不只是一家做代码的公司,计划扩展到很多领域。但单看代码,我们发布了 3.5 Sonnet,然后是 3.5 Sonnet V2—— 就叫它 3.6 Sonnet 吧,接着是 3.7 Sonnet、4.0 Sonnet 和 4.0 Opus。

这四五个模型系列,每个在代码能力上都比上一个有显著提升。看基准测试,比如 SWE-bench,得分从大概 18 个月前的 3% 左右,涨到了现在的 72% 到 80%(根据评测方式不同)。实际使用率也呈指数级增长,我们正越来越接近让这些模型自主工作。实际上,Anthropic 内部大部分代码都是由 Claude 模型编写或参与完成的。

所以我们看到的进展非常快,指数曲线还在继续,没看到任何收益递减。

AI 时代,技术护城河的消亡与重生

主持人:但大语言模型似乎确实有一些固有缺陷,比如 “持续学习” 能力。几周前我们请了 Dwarkesh,他觉得缺乏持续学习能力是个大问题:“大模型的基线能力可能比普通人强,但你就被困在它出厂时的水平了。” 模型造出来后就不再学习了,这似乎是个明显的缺陷。你怎么看?

达里奥・阿莫迪:首先我想说,即便我们永远解决不了持续学习和记忆的问题,大模型对经济的影响潜力依然巨大。回想我以前的领域,生物学和医学,比如有个非常聪明的诺奖得主,我对他说 “你虽然发现了这么多东西,头脑这么聪明,但不能再读新教科书,也不能吸收任何新信息了”。

这当然会很困难,但如果有一千万个这样的 “诺奖得主”,他们仍然能取得大量生物学突破,对吧?他们会有局限,有些事人类能做他们不能,有些他们能做人类不能。但即便这是上限,天哪,那也已经非常了不起,足以改变世界了。

不过话说回来,上下文窗口正在变得越来越长,而模型在上下文窗口内其实是能学习的。对吧?比如我和模型对话时,它会吸收对话中的信息。虽然底层模型权重可能没改,但就像我现在听你说话、思考、回应一样,模型也能做到。

从机器学习角度看,我们没理由不能把上下文长度做到一亿个词 —— 大概是一个人一生听到的词汇量,现在就能做到。真正限制我们的是推理成本。所以即便只是这样,也能填补很多空白 —— 不是所有,但很多。

而且还有很多关于学习和记忆的技术,确实能让我们更新模型权重。我们多年前就讨论过 “内循环” 和 “外循环” 的概念:内循环是在一个场景中学到东西,外循环是智能体在多个场景之间学习。也许这种内外循环结构就是实现持续学习的方式。

我们在 AI 领域学到的一点是,每当你觉得有个根本性障碍时 —— 比如两年前我们觉得推理能力是根本障碍,结果发现用强化学习训练模型写下思考过程就能解决。所以不透露太多细节的话,我认为,而且我们已经有初步证据表明,持续学习是另一个看似困难、但实际并非如此的问题。它最终会被规模化和稍微不同的思考方式攻克。

主持人:你对规模化的痴迷,会不会让你忽视一些新技术?比如 DeepMind CEO 德米斯・哈萨比斯说,要达到 AGI 可能需要一些新技术。如果注意力全在规模化上,会不会错过这些?

达里奥・阿莫迪:我们每天都在开发新技术。

Claude 在代码方面非常出色,我们不怎么对外说原因。

主持人:那它为什么这么好?

达里奥・阿莫迪:(笑)就像我说的,我们不怎么对外说。

我们发布的每一个新版本 Claude,在架构、输入的数据、训练方法上都有改进。所以我们一直在开发新技术,它们是构建每个模型的一部分。这也是为什么我总说,我们要尽可能优化 “人才密度”—— 有了这样的人才密度,才能发明新技术。

公司文化,决定了你能否拥有最顶尖的人才

主持人:有种观点说,Anthropic 可能理念正确,但资源跟不上。你看 xAI 和 Meta 的情况,马斯克建了超级计算集群,扎克伯格在建 5GW 的数据中心,他们投了巨量资源扩大规模。Anthropic 真的能跟上吗?

达里奥・阿莫迪:我们已经融资了…… 到目前为止接近 200 亿美元,这不算少了。而且看我们在建的数据中心规模,比如和亚马逊合作的那些,我觉得我们的数据中心规模化速度不比这个领域任何其他公司慢多少。

很多时候,这些事受限于能源和资金。你听到那些巨额数字的公告时,有时资金还没完全落实,而且是分几年投入的。我们看过其他公司在建的数据中心规模,非常有信心 —— 我们的规模会和他们在差不多的范围内。

主持人:那你怎么看扎克伯格在人才密度上做的事?把人才密度和巨大的数据中心结合起来,他似乎竞争力很强。

达里奥・阿莫迪:是的,这其实很有意思。因为我们注意到,相对于其他公司,很少有 Anthropic 的人被他们挖走。不是他们没努力,我跟很多在 Anthropic 收到他们 offer 的人聊过,他们直接就拒绝了,甚至不愿意和扎克伯格谈,说 “不,我要留在 Anthropic”。

我们对此的普遍回应是,我在公司 Slack 上发过一条消息:“我们不愿意为了单独回应这些 offer,牺牲我们的薪酬原则和公平原则。” 在 Anthropic,我们的做法是有一系列级别,候选人进来时会被定级,我们不就级别谈判 —— 因为这不公平,我们想要系统化的方式。

如果马克・扎克伯格随便扔个飞镖,正好射中你的名字,这不意味着你的薪水就该比旁边和你一样有才华、技能一样娴熟的同事高 10 倍。

在我看来,这种情况下,唯一能真正伤害你的,是因为恐慌而让这种行为破坏公司文化,试图用不公平对待员工的方式留住他们。

而我觉得,这其实是公司凝聚人心的时刻。我们没有屈服,拒绝牺牲原则,因为我们相信,留在 Anthropic 的人是真正认同公司使命的。

我相信,AI 领域的公司文化,最终决定了你能否拥有最顶尖的人才。我觉得他们在试图购买一些用钱买不到的东西 —— 对使命的认同。这里面有选择效应:他们得到的,是那些最有热情、最有使命感、最兴奋的人吗?

主持人:但他们有海量 GPU,你不低估这一点吗?

达里奥・阿莫迪:我们拭目以待。我个人对他们正在做的事相当不看好。

押注企业级市场

主持人:我们聊聊你的业务吧。很多人好奇,生成式 AI 到底是不是门好生意。你已经融资近 200 亿美元,谷歌投了 30 亿,亚马逊 80 亿,还有 Lightspeed 领投的新一轮 35 亿。你的融资逻辑是什么?毕竟你不像那些大科技公司有现成业务可以嫁接,难道是拿着规模法则去跟投资人说 “给我点钱” 吗?

达里奥・阿莫迪:我对这个问题的看法一直是,人才才是最重要的。

你想想,三年前我们才融资几亿美元,当时 OpenAI 已经从微软拿了 130 亿,更别说那些万亿市值的科技巨头,账上躺着千亿、两千亿美元。我们当时的融资逻辑是:我们知道如何比别人更好地制造这些模型。

可能有一条规模法则曲线,但如果我们能用 1 亿美元做到别人 10 亿美元才能做到的事,能用 100 亿做到别人 1000 亿才能做到的事,那投资 Anthropic 的资本效率就高 10 倍。你愿意投资一个能用便宜 10 倍的成本做事的公司,还是一开始钱更多的公司?

如果能用便宜 10 倍的成本做事,那资金短缺只是暂时的,能弥补;而如果有这种内在能力,能用同样价格造更好的产品,或更低价格造同样好的产品,投资人不傻,他们懂资本效率。

所以从三年前资本相差近千倍,到今天你问我 200 亿能不能和 1000 亿竞争,我的回答是:能,因为我们的人才密度。

主持人:CNBC 报道说,Anthropic 60%-75% 的销售额来自 API,这是不是意味着你在押注最纯粹的技术?

达里奥・阿莫迪:我不这么说。我会说我们押注的是模型的商业应用场景,而不只是 API—— 只是最早的商业应用恰好通过 API 实现而已。

如你所说,OpenAI 很专注于消费者端,谷歌专注于整合到现有产品中。而我们认为,企业级 AI 的应用潜力即便不比消费者端大,也至少是同一级别。

而且我觉得,作为专注商业应用场景的公司,这能更好地激励我们把模型做得更好。

我来做个思想实验:假设我有个模型,生物化学水平相当于本科生,后来改进到博士生水平。如果把这个模型给普通消费者,说 “好消息!模型生物化学能力从本科升到研究生了!” 大概 1% 的消费者会在意,99% 的人会说 “我反正看不懂”。

但如果去找辉瑞,说模型从本科水平升到研究生水平,这就是天大的事了,他们可能愿意多付 10 倍的钱,因为它能创造 10 倍的价值。

所以我们的总目标是让模型解决世界上的问题,让它们越来越聪明,同时带来很多积极应用 —— 我之前在《慈爱机器》里写的那些,解决生物医药、地缘政治、经济发展问题,当然也包括金融、法律、生产力、保险这些更实际的领域。

我觉得押注商业应用能更好地激励模型发展,而且从很多方面来说,这可能是比消费者端更赚钱的生意。

主持人:你最初是怎么决定专注于代码这个应用场景的?

达里奥・阿莫迪:一开始和很多事一样,我们想让模型在很多方面都变好,后来代码领域就脱颖而出了。

我和成千上万的工程师合作过。大概一年半前,我合作过的最优秀的工程师之一说,以前所有代码模型对他都没用,但我们的新模型终于能帮他做一些他自己做不到的事了。发布后,市场采用率迅速提升。

所以看到它这么受欢迎,我们就加倍投入了。我觉得代码很有趣,一是市场采用快,二是代码做得好又能反过来帮助我们开发下一个模型,有很多优势。

个人经历、风险与 “末日论者” 的标签

主持人:你曾说父亲因为晚了几年出现的疗法去世。我知道这很私人,但能说说这对你的影响吗?

达里奥・阿莫迪:当然。我父亲确实病了很久,最终在 2006 年去世。这件事确实促使我 —— 我之前没说过,进入 AI 领域前,我先进入了生物学领域。

我到普林斯顿时想成为理论物理学家,头几个月确实在做宇宙学研究。那段时间父亲去世了,这件事对我影响很大,也是说服我转向生物学的原因之一,我想去解决人类疾病和生物问题。

所以我开始和系里做生物物理、计算神经科学的人交流,这让我转向了生物学和计算神经科学。后来进入 AI 领域,其实也是这种动机的延续 —— 在生物学领域待了很多年后,我意识到生物学问题的复杂性已经超出了人类的处理尺度,需要成百上千的研究人员,而他们往往难以协作。

而 AI,我当时刚开始看到它的突破,觉得这是唯一能弥合这个差距的技术,能把我们带到人类尺度之外,真正理解和解决生物学问题。所以这里面有一条贯穿始终的线。

主持人:我听说,他得的病在他生病时基本无法治愈,但去世后不久就有了重大治疗进展,变得可以管理了。

达里奥・阿莫迪:是的,没错。实际上,他去世后大概三四年,那种病的治愈率就从 50% 提高到了 95% 左右。

主持人:眼睁睁看着父亲被本可以治愈的疾病夺走生命,那种感觉一定很不公平。

达里奥・阿莫迪:当然。但这也告诉你,解决这些问题有多紧迫。肯定有人在研究那种病的疗法,他们最终成功了,救了很多人。但如果能早几年找到疗法,就能救更多人。

我觉得这就是这里的矛盾所在:AI 有这么多好处,我希望所有人都能尽快享受到。我可能比任何人都更懂这些好处有多紧迫,因为我亲身经历过。

所以当我在公开场合谈论 AI 风险,说我担心这些风险时,有人称我为 “末日论者”,我真的非常、非常愤怒。当有人说 “这家伙是末日论者,他想让事情慢下来” 时 ——

你听到我刚才说的了吗?我父亲因为晚几年出现的疗法去世了,我懂这项技术的价值。

我写《慈爱机器》时,写下了所有能让数十亿人生活变好的方式。而那些在推特上为 “加速” 欢呼的人,我觉得他们对这项技术的好处没有人文主义的理解,他们脑子里全是肾上腺素,想为某件事欢呼,想加速,我不觉得他们在乎。

所以当这些人叫我 “末日论者” 时,我觉得他们完全丧失了这么做的道德信誉,这真的让我对他们失去尊重。

主持人:你对这项技术的掌控能力,似乎是你所有行动的前提。但你对影响力的渴望,会不会促使你在加速技术的同时,低估了 “控制” 本身可能不可行的风险?

达里奥・阿莫迪:我觉得我比这个行业里任何人都更多地警示过这项技术的危险。我们刚花了一二十分钟,聊了一大堆经营万亿美元公司的人批评我谈论技术危险的事。

现在有美国政府官员,有经营四万亿美元公司的人,批评我谈论技术危险,给我安各种奇怪的动机 —— 这些动机和我说的、做的任何事都没关系。

但我还是会继续这么做。

实际上我觉得,随着营收和经济业务的指数级增长 —— 如果我是对的,几年后这会是世界上最大的产业 —— 我们面临一个可怕的局面:有数千亿、数万亿,甚至我估计 20 万亿美元的资本,都站在 “尽可能快地加速 AI” 这一边。而我们公司虽然绝对价值高,但相对而言很小,才 600 亿美元。

我一直在发声,即便这会让政府里的一些人、一些巨头不高兴,每次这么做都会受到很多同行攻击,但我还是要继续。

如果我觉得我们完全没办法控制这项技术 —— 而我完全没看到任何证据支持这一点,我们发布的每个模型,控制能力都在变强 —— 如果真的没办法,我就会站出来说 “所有人都该停止开发这些东西,包括中国”。

我警示风险,是为了我们不必慢下来,为了能投资安全技术,继续这个领域的进步。这需要巨大的经济努力。就算一家公司愿意放慢脚步,也阻止不了其他公司,阻止不了地缘政治对手。

所以我们被夹在技术的巨大利益、加速竞赛和多方竞赛的现实之间。我能做的最好的事,就是投资安全技术,加速安全领域的进展,当担心处理风险的能力跟不上技术发展时,就更大声地疾呼。这就是我的回应。

那是我听过最无耻、最离谱的谎言

主持人:我相信你也听到了黄仁勋上个月对你的批评,他说 “Dario 认为只有他才能安全地构建这项技术,因此他想控制整个行业”。你怎么看?

达里奥・阿莫迪:我从没说过那样的话。那是我听过最无耻、最离谱的谎言。

事实上,我多次说过,Anthropic 的行动也证明了,我们的目标是 “竞相向上”。

我曾在播客上说过,Anthropic 的行动也表明:在 “竞相向下” 的环境里,大家比谁能更快推出东西,谁赢了都没用,因为所有人都输了 —— 你造出不安全的系统,可能会帮到对手,可能导致经济问题,或者从对齐角度看不安全。

而我理解的 “竞相向上”,是谁赢了都没关系,因为所有人都赢了 —— 你为整个领域树立榜样。一个关键例子就是我们的 “负责任的规模化政策”。

我们是第一个发布这种政策的公司。我们没说 “其他人都该这么做,不然就是坏人”,没把这当作优势,而是发布后鼓励所有人都这么做。

我们发现,之后几个月里,其他公司内部想推动类似政策的人,因为我们已经做了,就有了向领导层建言的理由和许可,这让整个行业都向前迈了一步。可解释性研究也是如此,我们把成果公开发布给所有人,即便知道这有商业优势;“宪法 AI”、危险能力评估方面也一样。

我们试图为这个领域树立榜样。但这和成为强大的商业竞争者之间是相互作用的。

我从没说过、也从没暗示过我们公司应该是唯一一个构建这项技术的公司。我不知道任何人怎么能从我所说的话里得出这种结论。这…… 这简直是…… 是的,这是一种令人难以置信的、恶意的曲解。