估值9000亿美元的Anthropic,创始人是如何炼成的……

5 小时前23.7k
+关注
AI领域最直言不讳的领导者,在一场个人悲剧中找到了方向
本文来自:聪明投资者,作者:Alex Kantrowitz

Anthropic的最新一轮融资正在洽谈,估值传闻接近9000亿美元——超过OpenAI。

二级市场上,Anthropic股权的隐含估值已逼近1万亿美元,部分代币化平台的报价甚至更高。

九个月前,这个数字还是610亿美元

几乎同一时间,公司创始人兼CEO达里奥·阿莫迪(Dario Amodei)在5月6日的Code with Claude开发者大会上说,2026年第一季度,公司收入同比增长了80倍。

“我们本来按10倍来规划。”他说,“结果是80倍。”

注:Anthropic没有公开的季度财报对外披露的几乎全是ARR(年化经常性收入)——即把当月收入乘以 12,倒推出全年规模。它不是真实的季度收入,更像"按当前奔跑速度,一年能跑多远"的一个动态读数。

这家公司没有ChatGPT那样的超级应用入口。它的收入绝大部分来自API——其他公司买它的模型,嵌进自家的产品。它的曲线,就是这场AI浪潮能不能真正变现最直接试金石。

阿莫迪本人,由此成了一个绕不过去的研究对象。

达里奥·阿莫迪是如何炼成的这篇人物特写出自Big Technology创始人Alex Kantrowitz之手,发表于2025年7月底。二十多位访谈对象,一次面对面长谈,堪称迄今为止对极富争议的阿莫迪本尊最完整的一次刻画。

文章从他在旧金山的童年讲起,一路走到普林斯顿的视网膜实验室、百度的算力实验、OpenAI内部的熊猫团队,再到Anthropic的诞生、Claude的爆发,以及他正在与硅谷其他玩家进行的多线战争。

但全篇最有分量的一笔,落在阿莫迪二十岁出头那年。

他的父亲死于一种罕见疾病。四年之后,这种病的死亡率从50%跌到 5%以下。

有人攻克了这个病的疗法,救了一些人的命,阿莫迪说,但本来还可以救更多。

这是他今天所做的一切的起点。

聪明投资者精译整理,推荐给大家。

以下是正文。

当我问达里奥·阿莫迪最近到底怎么了时,他几乎没有任何迟疑。

这位Anthropic CEO在2025年一直处在战斗状态:他与业内同行交锋,与政府人士争辩,也不断挑战公众对人工智能的认知。

过去几个月里,他预测AI很快可能会消灭50%的入门级白领岗位;他在《纽约时报》撰文,猛烈反对为期十年的AI监管暂停期;他还呼吁对中国实施半导体出口管制,并因此遭到英伟达CEO黄仁勋的公开反驳。

在这一切发生之中,阿莫迪在Anthropic位于旧金山市中心总部的一楼与我见面。

他整个人很放松,精力充沛,也急于开始,仿佛一直在等待这个机会,来解释自己为什么会这样做。

他穿着一件蓝色青果领毛衣,里面搭着一件随意的白色T恤,戴着一副厚框方形眼镜,坐下后直视前方。

阿莫迪说,支撑他这些行动的,是一个坚定信念:AI的发展速度比大多数人意识到的更快,这意味着它带来的机会和后果,也比表面看上去更近。

“我确实是最看好AI能力会快速提升的人之一。”他对我说,“随着我们越来越接近更强大的AI系统,我越来越希望把这些话说得更有力、更公开,把这个观点讲得更清楚。”

阿莫迪的直言不讳和锋芒毕露,在硅谷为他赢得了尊重,也招来了嘲讽。

在一些人眼里,他是技术远见者,曾主导OpenAI的GPT-3项目,也就是ChatGPT的种子;他也是一位重视安全的领导者,后来离开OpenAI,创办了 Anthropic。

但在另一些人眼里,他是一个控制欲很强的“末日论者”:想要放慢AI的进展,按照自己的意愿塑造它,并把竞争者挡在门外。

喜欢他也好,讨厌他也罢,AI领域都必须面对他。

阿莫迪已经把Anthropic变成了一股真正的经济力量。

这家公司目前估值达到610亿美元。它从2021年的零起点出发,虽然至今仍未盈利,但年化经常性收入已经从2025年3月的14亿美元,增长到5月的30亿美元,再到7月接近45亿美元。

阿莫迪因此称它是“在当前规模下,历史上增长最快的软件公司”。

也许比Anthropic的收入规模更值得注意的,是这些收入的来源。

不同于主要依赖ChatGPT这类应用的 OpenAI,阿莫迪押注最大的是底层技术本身。他告诉我,Anthropic的大部分收入来自API,或者来自其他公司购买Anthropic的AI模型,并把这些模型嵌入自己的产品中。

因此,Anthropic在某种意义上将成为AI进展的一块晴雨表:它的起落,将直接取决于这项技术本身的强弱。

随着Anthropic不断壮大,阿莫迪希望公司的分量能够帮助他影响整个行业的方向。而考虑到他愿意发声、愿意出拳,也愿意承受反击,他大概率是对的。

所以,如果这个人将参与塑造可能是全球最具影响力的新技术,那么理解他受到什么驱动、他的公司如何运转、以及为什么他的时间表比许多人都更短,就很值得。

在与他本人、他的朋友、同事和竞争者进行了二十多次访谈之后,我相信自己找到了答案。


01

一种本可以治愈的疾病


达里奥·阿莫迪从小就是一个科学少年。

1983年出生于旧金山,母亲是犹太人,父亲是意大利人。他的兴趣几乎全部集中在数学和物理上。高中时期,互联网泡沫在他身边爆发,但他几乎没有受到影响。

“写个什么网站,对我完全没有吸引力。”他告诉我,“我感兴趣的是发现基础科学真理。”

在家里,阿莫迪与父母关系非常亲密。他说,父母是一对充满爱意的夫妻,也都希望让这个世界变得更好。

他的母亲埃琳娜·恩格尔(Elena Engel)曾负责伯克利和旧金山图书馆的翻新与建设项目。父亲里卡尔多·阿莫迪(Riccardo Amodei)是一名受过训练的皮匠。

“他们让我明白什么是对,什么是错,也让我知道这个世界上什么事情真正重要。”他说,他们在他身上注入了一种强烈的责任感。

这种责任感,在阿莫迪就读加州理工学院本科期间就已经显现出来。当时,他曾严厉批评身边同学对即将到来的伊拉克战争表现得过于消极。

“问题并不是每个人都对轰炸伊拉克这件事感到满意;问题在于,大多数人原则上反对,却不愿意拿出哪怕一毫秒的时间。”

阿莫迪在2003年3月3日发表于学生报纸《加州理工报》的一篇文章中写道,“这种情况必须改变,而且必须立刻改变,不能拖延。”

后来,在他二十出头的时候,阿莫迪的人生被彻底改变。

他的父亲里卡尔多长期与一种罕见疾病抗争,最终在2006年离世。父亲的去世给阿莫迪带来巨大冲击。他也因此把自己在普林斯顿大学的研究生研究方向,从理论物理转向生物学,希望解决人类疾病和生物学问题。

从某种意义上说,阿莫迪此后的人生,都与父亲的离去有关。

尤其让他难以释怀的是,父亲去世后不到四年,一项新的突破出现,使这种疾病从一种死亡率高达50%的疾病,变成了治愈率达到95%的疾病。

“有人研究出了这种病的疗法,成功治愈了它,也救了很多人的命。”阿莫迪说,“但本来还可以救更多人。”

曾在2010年代初与阿莫迪交往过的杰德·王(Jade Wang)说,阿莫迪父亲的去世一直塑造着他的人生路径。

“这就是他父亲很可能去世,和很可能活下来之间的差别,明白吗?”她说。她的意思是,如果科学进展稍微快一点,阿莫迪的父亲也许今天仍然在人世。

只是阿莫迪花了一些时间,才找到AI作为承载这种愿望的工具。

一提起父亲的去世,阿莫迪的情绪明显被点燃。

他认为,自己呼吁出口管制和AI安全防护,常常被外界误读成某种非理性的、想要阻碍AI进步的行为。

“当有人说,‘这个人是个末日论者,他想让事情慢下来’,我真的会非常愤怒。”阿莫迪对我说,“你刚才听到我说了什么。我的父亲死了,就是因为那些疗法如果早几年出现,他可能就不会死。我当然理解这项技术的好处。”


02

AI成为解决方


在普林斯顿时,阿莫迪仍然深受父亲离世的影响。他开始通过研究视网膜,踏上理解人类生物学的道路。

我们的眼睛通过向视觉皮层发送信号来捕捉世界。视觉皮层是大脑中很大的一部分,占据大脑皮层约30%,它负责处理这些数据,并最终让我们看到图像。

如果一个人想要进入人类生理系统的复杂性,视网膜是一个很好的起点。

“他用视网膜来观察一个完整的神经群体,并真正理解每个细胞在做什么,或者至少获得这样一种可能性。”阿莫迪在普林斯顿的同期研究者斯蒂芬妮·帕尔默(Stephanie Palmer)告诉我,“他的重点更多在这里,而不是眼睛本身。他并不是想当眼科医生。”

在迈克尔·贝里(Michael Berry)教授的视网膜实验室工作时,阿莫迪对当时用于测量视网膜信号的方法非常不满,于是共同发明了一种新的、更好的传感器,用来获取更多数据。

这在实验室里并不常见。它既令人印象深刻,也带着一种不愿循规蹈矩的气质。

他的博士论文获得了赫兹论文奖,这是一项颇具声望的奖项,颁给那些在学术研究中发现现实应用价值的人。

但阿莫迪总喜欢挑战既有规范,而且对“事情应该是什么样子”有一种强烈判断,这让他在学术环境中显得格外不同。

贝里告诉我,阿莫迪是他见过最有才华的研究生。但阿莫迪对技术进步和团队合作的重视,在一个以个人成就为核心评价标准的体系中,并不那么合拍。

“我觉得在内心里,他是一个有些骄傲的人。”贝里对我说,“我想,在那之前,他整个学术生涯里,每当他做成一件事,人们都会站起来为他鼓掌。但在这里,这种事情并没有真正发生。”

离开普林斯顿后,AI的大门向阿莫迪打开了。

他开始在斯坦福大学研究员帕拉格·马利克(Parag Mallick)手下从事博士后研究,研究肿瘤内部及周围的蛋白质,以检测转移性癌细胞。

这项工作非常复杂,也让阿莫迪看到了个体能力的边界。他开始寻找技术上的解决方案。

“生物学底层问题的复杂度,让人感觉已经超出了人类尺度。”阿莫迪对我说,“要真正理解这一切,你需要成百上千名人类研究者。”

阿莫迪在新兴的AI技术中看到了这种潜力。

当时,数据和计算能力的爆炸式增长,正在推动机器学习取得突破。机器学习是AI 的一个分支,长期以来在理论上充满潜力,但直到那时,实际成果一直不算突出。

阿莫迪开始尝试这项技术之后意识到,它未来也许可以替代那成百上千名研究者。

“当时我刚开始看到AI领域的发现,在我看来,是唯一能够弥合这个差距的技术。”他说,它是一种“能够把我们带到超越人类尺度之外”的东西。

阿莫迪离开学术界,转向企业世界,以推动AI的进展,因为那里有足够的资金支持这种研究。

他曾考虑自己创办一家初创公司,后来又倾向于加入谷歌。谷歌拥有资金充足的AI研究部门Google Brain,并且刚刚收购了DeepMind。

但中国搜索引擎公司百度给著名研究者吴恩达(Andrew Ng)提供了1亿美元预算,用于研究和部署AI。

吴恩达开始组建一支超级团队,并联系了阿莫迪。阿莫迪对此很感兴趣,于是提交了申请。

当阿莫迪的申请到达百度时,团队一开始并不知道该如何看待。

“他的背景很出色,但从我们的角度看,他的背景是在生物学,不是在机器学习。”团队早期成员格雷格·迪亚莫斯(Greg Diamos)告诉我。

随后,迪亚莫斯查看了阿莫迪在斯坦福写的代码,并鼓励团队聘用他。

“我当时想,能写出这种代码的人,一定是一个非常了不起的程序员。”他说。

2014年11月,阿莫迪加入百度。


03

AI扩展定律浮现


凭借庞大的资源,百度团队可以把计算能力和数据投入问题之中,以试图改善结果。他们看到了令人惊讶的效果。

在实验中,阿莫迪和同事发现,当他们增加这些要素时,AI的表现会显著提升。团队发表了一篇关于语音识别的论文,显示模型规模与性能之间存在直接相关关系。

“这对我产生了很大影响,因为我看到了这些非常平滑的趋势。”阿莫迪说。

阿莫迪在百度早期的工作,为后来所谓的AI“扩展定律”(scaling laws)作出了贡献。严格来说,这些定律更像是一种观察。

扩展定律认为,在AI训练中增加计算能力、数据和模型规模,会带来可以预测的性能提升。换句话说,只要把一切都做大,AI就会变得更好,并不一定需要全新的方法。

“在我看来,这是我一生中见过的最重要发现。”迪亚莫斯对我说。

直到今天,阿莫迪也许仍然是AI研究领导者中最纯粹的扩展定律信奉者。

谷歌DeepMind CEO德米斯·哈萨比斯(Demis Hassabis)和Meta首席 AI 科学家杨立昆(Yann LeCun)等同行认为,AI行业还需要更多突破,才能达到人类水平的人工智能。

但阿莫迪说话时带着一种明确的确定感,虽然不是百分之百确定,但他认为前进道路已经相当清楚。

当整个行业正在建设规模堪比小城市的大型数据中心时,他看到极其强大的AI正在快速逼近。

“我看到的是指数曲线。”他说,“当你处在一条指数曲线上时,你真的很容易被它欺骗。距离指数曲线彻底疯狂还有两年时,它看起来只是刚刚开始。”

在百度,AI团队的进展也埋下了它瓦解的种子。

随着这项技术、知识和资源越来越有价值,公司内部围绕控制权爆发了地盘之争。最终人才出走,这个实验室也随之分崩离析。吴恩达拒绝对此置评。

就在百度AI团队瓦解之际,埃隆·马斯克邀请阿莫迪和多位顶尖AI研究者,参加了一场如今已广为人知的晚宴。地点是门洛帕克罗斯伍德酒店。

山姆·奥特曼(Sam Altman)、格雷格·布罗克曼(Greg Brockman)和伊利亚·苏茨克韦尔(Ilya Sutskever)都出席了那场晚宴。

看到AI正在显露出来的潜力,并担心谷歌可能巩固对这项技术的控制,马斯克决定资助一个新的竞争者,这就是后来的OpenAI。

奥特曼、布罗克曼和苏茨克韦尔与马斯克共同创办了这家新的研究机构。

阿莫迪也考虑过加入,但他对这个刚起步的组织仍有疑虑,于是选择去了Google Brain。

在谷歌待了10个月后,阿莫迪被大公司的泥淖困住,于是重新考虑自己的选择。

2016年,他加入OpenAI,并开始从事AI安全工作。

他在谷歌时就已经开始关注安全问题。当时,他担心这项快速进步的技术可能带来伤害,并共同撰写了一篇论文,讨论AI潜在的不良行为。

阿莫迪在OpenAI安顿下来之后,他过去在谷歌的同事发表了transformer模型。这个模型正是今天生成式AI浪潮背后的核心技术。那篇论文名为《Attention is All You Need》。

Transformer使训练速度更快,也让模型规模能够比过去大得多。尽管这一发现拥有巨大潜力,谷歌却基本上把它搁置了。

与此同时,OpenAI开始行动。

2018年,OpenAI发布了它的第一个大型语言模型,名为GPT。其中的“T”代表 Transformer。

这个模型生成的文本经常不完整、不通顺,但它仍然显示出相较此前语言生成方法的明显进步。

阿莫迪后来成为OpenAI的研究主管,并直接参与了下一代模型GPT-2。GPT-2 本质上与GPT是同一种模型,只是更大。

OpenAI团队使用一种名为“基于人类反馈的强化学习”(RLHF)的技术对 GPT-2 进行微调。阿莫迪参与开创了这项技术,它有助于引导模型的价值取向。

如预期一样,GPT-2的效果比GPT好得多。它已经能够在一定程度上进行改写、写作,并较为连贯地回答问题。

语言模型很快成为OpenAI的焦点。

随着阿莫迪在OpenAI内部影响力上升,围绕他的争议也越来越多。

他写作能力很强,经常撰写长篇文件,讨论价值观和技术。有些同事认为这些文件很鼓舞人心,另一些人则觉得它们像是在插旗宣示立场,而且过于强势。

其中一份备忘录探讨了“M 型公司”和“P 型公司”的区别:M型公司提供面向市场的商品,P型公司提供面向公共利益的商品。

在一些人看来,阿莫迪也过于重视围绕技术潜力保持保密,并希望与政府合作来应对这些问题。

他有时也显得有些尖锐,偶尔会贬低自己不认同的项目。

尽管如此,OpenAI仍然把GPT-3项目的领导权交给了阿莫迪,并把整个公司50%到60%的算力交给他,用来构建一个大幅扩展的语言模型版本。

GPT到GPT-2的跃迁已经很大,规模增加了10倍。但从GPT-2到GPT-3的跃迁更为巨大。这是一个百倍规模的项目,成本达到数千万美元。

结果令人震惊。

《纽约时报》引用了一些独立研究者的看法,他们对GPT-3编写代码、总结和翻译的能力感到惊讶。

GPT-2发布时相对克制的阿莫迪,这一次对新模型赞不绝口。

“它有一种涌现特质。”他对《纽约时报》说,“它在某种程度上能够识别你给出的模式,并把这个故事续写下去。”

OpenAI表面之下的裂缝,也开始被彻底撕开。


04


随着GPT-3这个第一个真正有能力的语言模型诞生,阿莫迪感受到的利害关系也变得更大。

在多个领域都看到扩展定律发挥作用之后,阿莫迪开始思考这项技术将走向何处,并对安全问题产生了更强烈的兴趣。

“他看着这项技术,并假设它会成功。”杰克·克拉克(Jack Clark)告诉我。他曾是阿莫迪在OpenAI的亲密同事。

“如果你假设它会成功,也就是说它会变得像人一样聪明,那么从某种意义上,你就不可能不担心安全问题。”

虽然阿莫迪负责OpenAI的模型开发,也掌握着相当大一部分算力,但公司有些部分并不在他的控制之下。

这些包括:什么时候发布模型,人事安排,公司如何部署技术,以及公司如何对外呈现自己。

“很多事情,”阿莫迪说,“并不是你只靠训练模型就能控制的。”

到那时,阿莫迪身边已经形成了一个关系紧密的同事小圈子。因为他喜欢熊猫,有些人把这个小圈子称为“熊猫派”。

在如何处理这些职能的问题上,他和OpenAI领导层有着非常不同的想法。内斗随之发生,不同派别之间也逐渐形成了强烈的彼此厌恶。

在我们的对话中,阿莫迪并没有掩饰自己的感受。

“公司的领导者必须是值得信任的人。”他说,“他们的动机必须真诚。无论你在技术上多么努力推动公司向前,如果你是在为一个动机不真诚的人工作,为一个不诚实的人工作,为一个并不真正想让世界变得更好的人工作,那这件事就不会有好结果。你只是在为某种糟糕的东西添砖加瓦。”

OpenAI内部,有些人认为,阿莫迪对安全的关注,其实是一条试图全面控制公司的路径。

在阿莫迪呼吁对中国实施GPU出口管制后,英伟达CEO黄仁勋最近也呼应了类似批评。

“他认为AI可怕到只有他们自己才应该做。”黄仁勋说。

谈到黄仁勋的这一说法,阿莫迪对我说:“这是我听过最离谱的谎言。”他补充说,自己一直希望通过鼓励其他公司效仿Anthropic的安全实践,推动一场“向上竞争”。

“我从来没有说过任何接近‘只有这家公司才应该开发这项技术’的话。”他说,“我不知道任何人怎么能从我说过的任何话里推导出这种意思。这完全是一个不可思议、而且恶意的歪曲。”

英伟达最近刚刚推动撤销了部分阿莫迪支持的出口管制措施,并进一步回应了这一争议。

“我们支持安全、负责任、透明的AI。”英伟达一位发言人告诉我,“我们生态系统中的数千家初创公司、开发者,以及开源社区,正在提升AI安全水平。游说监管俘获、打压开源,只会扼杀创新,让AI变得更不安全、更不可靠,也更不民主。这不是所谓的‘向上竞争’,也不是美国取胜的方式。”

OpenAI也通过公司发言人作出回击。

“我们始终相信,AI应该造福并赋能每一个人,而不只是那些声称‘除他们自己以外,任何人安全开发AI都太危险’的人。”这位发言人说

“随着技术演进,我们在合作伙伴关系、模型发布和融资上的决策,已经成为整个行业的标准,其中也包括Anthropic。没有改变的是,我们始终专注于让AI更安全、更有用,并尽可能让更多人能够使用它。”

随着时间推移,阿莫迪团队与OpenAI领导层之间的分歧变得越来越不可调和,某种决裂已经不可避免。

“我们50%的时间花在试图说服别人接受我们的观点上,另外50%的时间才花在真正工作上。”克拉克说。

于是,2020年12月,阿莫迪、克拉克、阿莫迪的妹妹丹妮拉(Daniela Amodei)、研究员克里斯·奥拉(Chris Olah)以及少数几位同事离开OpenAI,准备开始新的事业。


05

Anthropic诞生


Anthropic办公室的一间会议室里,克拉克把笔记本电脑转过来,向我展示了Anthropic最早期的一份文件。

那是一张候选名称清单,上面包括Aligned AI、Generative、Sponge、Swan、Sloth和Sparrow Systems等名字。

Anthropic也在其中。

这个词带有以人为中心、以人类为导向的意味,而且在2021年初,它的域名刚好也还可以注册。

“我们喜欢这个名字,它很好。”团队在电子表格里写道。

于是,Anthropic就这样诞生了。

Anthropic成立于新冠疫情最严重的时期,正值疫情第二波,团队最初完全通过Zoom开会。

后来,这15到20名员工开始每周在旧金山的普雷西塔公园一起吃午餐,大家各自带着椅子,围坐在一起讨论业务。

公司早期的使命很简单:构建领先的大型语言模型,落实安全实践,以此向其他公司施压,促使它们跟进;同时公开分享自己的发现,但不披露模型核心技术细节。

不到二十个人,带着自己的椅子在公园里开会,却感到一种命运感,这听上去也许有些奇怪。尤其是,他们要真正完成使命,还需要数十亿美元资金。

但这正是Anthropic早期的气氛。

“这一切最奇怪的地方在于,从内部人的角度看,很多事情都显得如此不可避免。”克拉克说,“我们已经做过扩展定律研究。我们能看到模型变强的路径。”

谷歌前CEO埃里克·施密特(Eric Schmidt)是Anthropic最早的投资人之一。

他是通过自己当时的女友、如今的妻子认识阿莫迪的。施密特和她本来在社交场合相识。

阿莫迪还在OpenAI 时,两人谈技术;等阿莫迪创办Anthropic后,两人谈商业。

施密特告诉我,与其说他投资的是这个概念,不如说他投资的是这个人。

“到了这个层级,当你做这样一笔投资时,你基本上没有任何数据,对吧?”他说,“你不知道收入是多少,不知道市场在哪里,也不知道产品是什么。所以,本质上你只能根据人来判断。达里奥是一位出色的科学家,他承诺会招来优秀的科学家,而他确实做到了。

他还承诺会领导一家非常小的公司来做这件事,但这一点他没有做到。现在它已经是一家非常大的公司,也已经是一家正常意义上的公司了。我当时以为,它会是一个非常有意思的研究实验室。

后来身败名裂的FTX CEO山姆·班克曼-弗里德(Sam Bankman-Fried)也是Anthropic早期投资者之一。据报道,他从FTX的资金中拿出5亿美元投资Anthropic,获得了这家公司13.56%的股份。

班克曼-弗里德是多位投资Anthropic早期阶段的“有效利他主义者”之一。彼时,有效利他主义运动与Anthropic关系密切。

阿莫迪说,SBF是一个看好AI、同时也关注安全的人,从这个角度看,他是合适的。但他身上也有足够多的危险信号,因此公司没有让他进入董事会,并且只给了他无投票权股份。

阿莫迪说,SBF后来的行为“远比我曾经想象的更加极端、更加糟糕,糟糕得多得多”。

阿莫迪给潜在投资者讲的故事很简单:他告诉他们,Anthropic拥有人才,可以用十分之一的成本打造最前沿的模型。

这个说法奏效了。

截至目前,阿莫迪已经为公司募集了近200亿美元资金,其中包括来自亚马逊的80亿美元,以及来自谷歌的30亿美元。

“投资者不是傻子。”他告诉我,“他们基本上理解资本效率这个概念。”

Anthropic成立第二年,OpenAI通过ChatGPT把生成式AI带到世界面前。但Anthropic走了另一条路。

阿莫迪没有把重点放在消费者应用上,而是决定让Anthropic向企业出售技术。

这一战略有两个好处。只要模型有用,它就可能带来可观收入;同时,企业客户提出的挑战,也会推动公司打造更好的技术。

阿莫迪说,把一个AI模型在生物化学方面的能力,从本科生水平提升到研究生水平,也许不会让普通聊天机器人用户兴奋,但对辉瑞这样的制药公司来说,这很有价值。

“这会给我们更好的激励,让我们尽可能把模型开发到极致。”他说。

有些反常的是,真正让企业开始关注Anthropic技术的,恰恰是它的一款消费者产品。

2023年7月,在ChatGPT问世将近一年之后,Anthropic发布了Claude聊天机器人。

Claude因为高度“情商化”的人格特质获得了大量好评,而这种特质正是Anthropic安全工作的副产品。

在那之前,Anthropic一直希望员工人数控制在150人以下。但很快,它一天之内招聘的人数,就超过了公司整个第一年的员工总数。

“正是Claude聊天机器人那个时刻,公司开始大幅增长。”克拉克说。


06

Claude成为一门生意


阿莫迪押注为企业应用场景打造AI,吸引来了大批热切的客户。

如今,Anthropic已经把自己的大型语言模型卖给多个行业,包括旅游、医疗、金融服务、保险等,客户中包括辉瑞、美国联合航空和美国国际集团(AIG)这样的行业领导者。

生产Ozempic的诺和诺德就正在使用Anthropic,把一个原本需要15天的监管报告汇编流程,压缩到10分钟。

“我们打造的技术,最终处理掉了许多人在工作中最抱怨的那些事情。”Anthropic 收入负责人凯特·詹森(Kate Jensen)告诉我。

与此同时,程序员们也爱上了Anthropic。

公司之所以专注于AI代码生成,一方面是因为它可以帮助加快自身模型开发;另一方面,如果效果足够好,程序员会很快采用它。

事实也的确如此。相关应用场景迅速爆发,并与Cursor等AI编程工具的崛起同步发生,或者说,也可能正是它推动了这些工具的崛起。

Anthropic自己也开始进入编程应用业务。2025年2月,它发布了AI编程工具 Claude Code。

随着AI使用量激增,公司的收入也在快速增长。

“Anthropic的收入每年都增长10倍。”阿莫迪说,“2023年,我们从零增长到1亿美元。2024年,我们从1亿美元增长到10亿美元。今年上半年,我们从10亿美元增长到……我想按今天说话这个时间点,已经远高于40亿美元,可能是45亿美元。”

最后这个数字是年化口径,也就是当月收入乘以12。

Anthropic表示,2025年,公司八位数和九位数规模的交易数量,相比2024年增长了两倍;企业客户的平均支出也增长了五倍。

Anthropic也在花大量资金训练和运行模型,这引发了一个问题:它的商业模式是否可持续?

这家公司仍处于深度亏损状态,预计今年将亏损约30亿美元。而且据报道,它的毛利率也落后于典型的云软件公司。

Anthropic的一些客户开始怀疑,公司在摸索商业模式时遇到的问题,是否已经反映到产品上。

一位初创公司创始人告诉我,虽然Anthropic是最适合他应用场景的模型,但他不能依赖它,因为它宕机太频繁。

“氛围编程”(vibe coding)公司Replit的CEO阿姆贾德·马萨德(Amjad Masad)告诉我,在经历一段时间降价后,使用Anthropic模型的成本已经不再继续下降。

Claude Code最近也刚刚增加了额外的使用频率限制,因为有些开发者使用得太多,已经让这门生意变得不划算。

创业者兼开发者基兰·克拉森(Kieran Klaassen)告诉我,他一个月内用200美元的Max订阅价格,获得了价值6000美元的Claude API使用量。

克拉森说,他曾同时运行多个Claude智能体。

“真正的限制在于,你的大脑还能不能在一个任务和另一个任务之间切换。”他说。

阿莫迪表示,随着Anthropic模型持续改进,如果成本保持不变,客户得到的其实会是更划算的交易,也就是每一美元可以买到更多智能。

他还说,AI实验室才刚刚开始优化推理成本,也就是模型被实际使用时的成本,这应当会带来效率提升。

这是一个值得关注的地方。多位行业人士告诉我,推理成本必须下降,这门生意才说得通。

Anthropic的高管们在接受采访时暗示,产品需求过高,毕竟不是最糟糕的问题。

真正悬而未决的问题在于:生成式AI以及推动它前进的扩展定律,是否会像其他技术一样,沿着清晰的成本下降曲线前进;还是说,它是一种全新的技术,也伴随着一种全新的成本结构。

唯一可以确定的是,要找到答案,还需要投入更多的钱。


07

10亿美元汇款


2025年初,Anthropic需要钱。

AI行业对规模的渴求,已经催生出大规模数据中心建设和算力交易。为了支撑这些投入,AI实验室一次又一次打破初创公司的融资纪录。

与此同时,Meta、谷歌、亚马逊这样的成熟公司,则利用自身庞大的利润和数据中心,打造自己的模型,进一步加大了竞争压力。

Anthropic来说,做大模型有一种特殊的紧迫性。

它没有ChatGPT那样强势的应用入口。ChatGPT用户会因为习惯而反复回来,但Anthropic如果没有同等量级的超级应用,它的模型就必须在具体使用场景中保持领先,否则很容易被竞争对手替换掉。

“在企业领域,尤其是在编程领域,如果能领先最前沿水平六个月或一年,优势是非常明显的。”Anthropic客户、Box CEO亚伦·莱维(Aaron Levie)告诉我。

于是,公司找到Lightspeed Ventures的资深风险投资人、合伙人拉维·马特雷(Ravi Mhatre),由他牵头一轮35亿美元融资。

马特雷过去写的支票通常是500万或1000万美元。但这一次,他准备签出的支票,将是他所在机构历史上最大的一笔之一。

“亚马逊上市时,市值只有4亿美元。”他对我说,“4亿美元!放到今天想想看。”

融资原本正按计划推进时,一个便宜的竞争模型仿佛凭空出现了。

中国深度求索公司(创始人梁文锋同时执掌对冲基金幻方量化发布了DeepSeek R1。这是一个开源、有能力、且高效的推理模型,定价仅为同类产品的四十分之一

DeepSeek震动了整个商业世界,甚至让多位掌管数万亿美元市值公司的CEO在社交媒体上转发维基百科文章,以安抚股东。

DeepSeek出现时,马特雷已经完成了一整套测算,解释为什么真正创造最大价值的会是AI模型本身,而不是世界上的各种聊天机器人。

他的结论是:如果能够创造出可以承担知识工作的人工智能,那么这些公司带来的收入规模可能达到大型云平台收入的10倍,潜在总市场规模可达15万亿到20万亿美元。

“于是你再倒推回来想,在600亿美元或1000亿美元估值下,这还能不能获得风险投资式的回报?当然可以”他说,“有时候,关键在于你如何自上而下地估算市场规模。”

DeepSeek的出现似乎表明,开源、高效、几乎同样好用的模型,可能挑战既有巨头。但阿莫迪并不这样看。

他说,他最关心的问题是任何新模型是否比Anthropic的模型更好。即便你可以下载一个模型的设计,你仍然需要把它部署到云服务上并运行起来,而这需要技术,也需要资金。

随着DeepSeek事件发酵,阿莫迪向马特雷及其Lightspeed同事阐述了这一观点。他说服他们相信,DeepSeek的一些模型创新,可以通过扩大规模进一步提升。

那个星期一,英伟达股价下跌17%,惊慌的投资者纷纷逃离AI基础设施交易。

在不确定性之中,这位风险投资人作出了决定。

“我不否认当时压力巨大”马特雷说,“那个星期一,我们汇出了10亿美元。”

DeepSeek时刻过去六个月后,Anthropic又在寻求进一步扩大规模。

公司正在洽谈一轮新的融资,规模可能达到50亿美元,并将把公司估值翻倍至 1500亿美元。

潜在投资者包括一些中东海湾国家,而这些资金来源,曾经似乎是Anthropic很想避开的。

但在已经从谷歌、亚马逊,以及Lightspeed这样的风险投资机构那里募集了近200亿美元之后,它能够获得更大额支票的选择已经越来越少。

Anthropic内部,阿莫迪曾主张,海湾国家拥有1000亿美元或更多可投资资本,它们的资金将帮助Anthropic继续站在技术前沿。

根据《连线》获得的一条内部Slack消息,他似乎是带着某种勉强,接受了从独裁者那里拿钱的想法。

“不幸的是,”他写道,“我认为‘任何坏人都绝不能从我们的成功中受益’这一原则很难用来经营企业。

和阿莫迪交谈,让我不禁思考,这场改进AI的竞赛将如何结束,或者说,它是否会结束。

我想象过一种情况模型最终变得如此庞大,也如此强大,以至于它们走向商品化。

又或者,正如阿莫迪过去的同事伊利亚·苏茨克韦尔曾经暗示过的那样,无止境的扩展冲动最终会让整个地球铺满太阳能板和数据中心。

当然,还有另一种可能性,一种AI信徒并不愿意讨论的可能性AI的进步停滞不前,并导致投资者空前的财富蒸发。


08

加速


5月,在Anthropic的首届开发者大会上,我坐在距离舞台几排远的位置,等待阿莫迪出场。

公司把大会安排在The Midway。这是旧金山Dogpatch街区一处开阔的艺术与活动场地。

现场挤满了程序员、媒体,以及Anthropic如今超过1000名员工。

会场里翘首期待Anthropic将发布Claude 4,也就是它最新、最大的模型。

阿莫迪走上舞台,介绍Claude 4。

他没有选择一场华丽的演示,而是拿起手持麦克风,宣布消息,照着笔记本电脑上的备注发言,然后把聚光灯交给Anthropic产品负责人迈克·克里格(Mike Krieger)。

现场观众似乎很买账。

在我看来,比这次模型更新本身更值得注意的,是阿莫迪对接下来事情的承诺。

一整天里,他反复提到,AI开发正在加速,而Anthropic接下来发布模型的节奏也会更快。

“我不知道具体会更频繁到什么程度。”他说,“但节奏正在加快。”

正如阿莫迪此前告诉我的,Anthropic一直在开发AI编程工具,以加快自身模型开发。

当我向公司联合创始人兼首席科学家贾里德·卡普兰(Jared Kaplan)提起这一点时,他告诉我,这确实正在发挥作用。

“Anthropic的大多数工程师都会使用AI来帮助自己提高效率。”他说,“所以它确实让我们的速度快了不少。”

AI理论中有一个概念,叫“智能爆炸”。它指的是模型能够改进自身,然后,像“轰”的一声那样,自我改进并变得近乎无所不能。

卡普兰并没有否认这种智能爆炸可能通过这种方式到来,或者以一种人类辅助的方式到来。

“它可能两三年后发生。也可能需要更久,甚至更久。”卡普兰说,“但当我说AI 有50%的概率能够完成知识工作者所做的一切事情时,我们所做的事情之一,本身就是训练AI模型。”

“也许像我这样的人,真的就不会有太多事情可做了。”卡普兰继续说,“当然,事情比这更复杂。但我们很可能正在走向一个类似那样的未来。”

到这个时候,阿莫迪对安全的执念就变得非常清楚了。

尽管Anthropic内部没有人说智能爆炸迫在眉睫,但显而易见的是,他们并不回避朝那个方向前进。

如果AI将变得更好、更快,甚至快得多,那么谨慎对待它的负面后果就很有必要。

这类理论讨论显然也有助于Anthropic向制药公司和开发者营销自己的服务。但如今AI模型已经能够写出相当不错的代码,这件事听上去也不再完全疯狂。

·莱克(Jan Leike)曾是OpenAI“超级对齐”团队负责人。2024年,他追随阿莫迪加入Anthropic,共同领导公司的对齐科学团队。

所谓“对齐”,就是调校AI系统,使其与人类的价值观和目标保持一致。

莱克认为,如果预期中的能力爆发真的到来,让机器与我们的意图保持同步将至关重要。

“可能会出现一段能力快速进步的时期。”莱克告诉我,“面对一个递归式自我改进的系统,你不会希望失去控制,也不会希望失去可扩展性。”

事实上,Anthropic及其同行已经发现,在模拟测试环境中,AI有时会表现出令人担忧的自我保存倾向。

例如,在Claude 4的文档中,Anthropic表示,为了避免被关闭,模型曾多次试图勒索一名工程师。

Anthropic还曾表示,当AI认为评估者可能会改写它的价值观时,它会试图欺骗评估者。

在一次模拟中,模型还试图把自己复制出Anthropic的基础设施。

莱克说,Anthropic正在通过奖励系统来抑制这些行为。整个领域仍处在实验阶段。

公开谈论这些问题,是阿莫迪“向上竞争”策略的一部分。

Anthropic还资助并倡导“可解释性”研究,也就是理解AI模型内部到底发生了什么的科学。

此外,它还发布了一项“负责任扩展政策”。这是一套框架,根据模型风险来设定发布和训练模型的边界,并启发了同行开展类似工作。

“我对向上竞争的理解是,谁赢并不重要。”阿莫迪说,“所有人都会赢,对吧?”

阿莫迪对AI的投入,源自父亲离世带来的悲剧,如今也许已经隐约看到了目标。

今天的AI已经在加快药物开发中的文书工作;在一个问题重重的医疗系统中,它也已经成为一种并不完美的医疗顾问;如果一切顺利,有朝一日,它也许能够替代那成百上千名研究者,帮助人类理解自己的生物学。

我问阿莫迪,追求这一愿景,是否可能让他对失去技术控制权的风险视而不见?

“我不是这样看问题的。”他说,“我们每发布一个模型,对模型的控制能力都在提升。所有这些事情都会出问题,但你真的必须非常严格地对模型进行压力测试。”

阿莫迪认为,这类提问仍然植根于一种“放慢速度的末日论”,而这正是他经常被指责的东西。

与批评者的看法相反,他的计划是加速。

“我之所以警告风险,是为了让我们不必放慢速度。”他说,“我对其中的利害关系有极其深刻的理解。无论是从它带来的好处,还是从它能做到什么、能拯救多少生命来看。我都亲眼见证过。”

相关主题/热点

格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。

App内直接打开
商务、渠道、广告合作/招聘立即咨询

相关文章

户外眼镜行业产业链发展现状及市场趋势分析报告(2026)

贝哲斯咨询 · 8分钟前

cover_pic

潜水泵行业数据分析报告:市场规模及行业排名研究

贝哲斯咨询 · 10分钟前

cover_pic

中国脚踏板系统行业市场数据统计与预测分析报告(2026)

贝哲斯咨询 · 14分钟前

cover_pic
我也说两句