当你为错过太阳而哭泣的时候,你也要再错过群星了。

Anthropic 和 Claude 名字的由来

信息大爆炸 爱 好奇 来源:AGI HUNT公众号 6浏览 0评论

Anthropic 为什么叫 Anthropic?Claude 又为什么叫 Claude?


这两个名字背后,各藏着一条线索。一条通向宇宙学和哲学,另一条通向信息论的奠基人。而把这两条线串起来的,是一个从百度实习生到 AI 安全领袖的创始人故事。

先说 Claude

Claude 的名字来自 Claude Shannon,信息论之父。

Claude Shannon,信息论之父

1948 年,Shannon 发表了那篇改变世界的论文 A Mathematical Theory of Communication,被引用超过 16 万次。他证明了信息可以被编码为 0 和 1 的比特流,奠定了整个数字通信的理论基础。

没有 Shannon 的工作,就没有数据压缩,没有纠错编码,没有今天神经网络赖以运行的一切数字基础设施。

Anthropic 用这个名字,是在提醒一件事:大语言模型看起来在「说话」,但底层是一门关于信息和概率的严谨科学。

而且 Shannon 本人就是个「跨界怪才」,他在 MIT 的办公室里骑独轮车、玩杂耍,同时在信息论、密码学、博弈论之间自由穿梭。这种「严肃的玩耍」气质,和 Claude 的人格设计倒是暗暗呼应。

再说 Anthropic

Anthropic 这个名字的线索,要从一本 2002 年的哲学著作说起。

Menlo Ventures 合伙人 Deedy(同时也是 Anthropic 的投资人)最近在 X 上发了条帖子,把这条脉络完整梳理了一遍。

Deedy 推文中引用的 Bostrom《Anthropic Bias》维基百科页面

牛津大学哲学家 Nick Bostrom 在 2002 年出版了 Anthropic Bias: Observation Selection Effects in Science and Philosophy。这本书探讨的核心问题是:我们对宇宙的观察,天然就是有偏的,因为只有在适合观察者存在的宇宙里,才会有观察者去观察。

听起来可能有点儿绕。

换个说法就是:你之所以能坐在这里思考「宇宙为什么是这样的」,恰恰是因为宇宙碰巧是这样的。如果物理常数稍微偏一点,连原子都形成不了,更不会有人来提问。

这就是「人择原理」(anthropic principle),宇宙学里一个古老而深刻的概念。

Nick Bostrom,牛津大学哲学家,人择原理的重要推动者

Bostrom 把它延伸出了一个令人不安的推论,叫「末日论证」(Doomsday Argument):如果你把自己视为人类历史上随机出现的一个观察者,那么从统计学上看,你大概率处于人类历史的「中间段」,而非开头。

人类的未来,可能比我们以为的要短得多。

从哲学到运动

Bostrom 不只是个哲学家。他还是有效利他主义(Effective Altruism,简称 EA)运动中「长期主义」(longtermism)的重要推动者。

长期主义的核心主张:正向塑造人类的长期未来,是我们这个时代最重要的道德优先级。

而在长期主义者看来,当下最大的威胁之一,就是没有对齐人类价值观的 AI。

EA 社区的标杆组织 80,000 Hours 早就把「降低 AI 带来的存在性风险」列为最优先的全球问题。他们引用了 Berkeley 教授 Stuart Russell 2017 年的 TED 演讲。Russell 是 AI 经典教材 Artificial Intelligence: A Modern Approach 的合著者,几乎每个 AI 学生都读过这本书。

Russell 在那场演讲中提出了三条原则:

  • 机器的唯一目标,应该是最大化人类偏好的实现
  • 机器一开始并不确定那些偏好是什么
  • 机器必须通过观察人类行为来学习这些偏好

一句话概括就是:让 AI 对人类的意图始终保持不确定性和谦逊。

这个思路,后来成了 AI 安全研究的重要基石。

百度的实习生

故事的另一条线,要从硅谷一间不起眼的实验室说起。

2014 年底,一个刚从 Princeton 拿到生物物理学博士学位的年轻人,加入了百度硅谷 AI 实验室。他的导师是 Andrew Ng(吴恩达)。

这个人叫 Dario Amodei。

Dario Amodei,Anthropic 创始人兼 CEO

Dario 的学术背景颇为独特。他本科在 Stanford 读物理,高中时还入选过美国物理奥林匹克队。博士期间在 Princeton 研究神经回路的集体行为,用电极阵列记录大规模神经元群的活动模式。

从生物神经网络到人工神经网络,这一步对他来说几乎是自然的。

在百度,Dario 参与了 Deep Speech 2 的开发,这是一个端到端的语音识别系统,能同时处理英语和中文,被 MIT Technology Review 评为 2016 年十大突破技术之一。

Deep Speech 2 论文,Dario Amodei 为第一作者

但更关键的发现藏在实验过程中:模型的性能,随着数据量和计算量的增加,呈现出可预测的提升。

模型越大,数据越多,训练越久,效果越好。这个规律后来被称为「Scaling Laws」(缩放定律),成了整个大模型时代的理论基石。

有人甚至争论:百度的这个团队是否比 OpenAI 更早发现了 Scaling Laws?

不论结论如何,Dario 在百度的那一年,让他成了世界上最早亲手验证过 Scaling Laws 的人之一。这段经历直接塑造了他后来在 OpenAI 的工作方向,也为 Anthropic 的创立埋下了种子。

出走 OpenAI

离开百度后,Dario 在 2016 年加入了 OpenAI,很快成为研究副总裁。他的妹妹 Daniela Amodei 也在 OpenAI,担任安全与政策副总裁。

GPT-2、GPT-3 的研发过程中,Dario 越来越坚信两件事:模型会变得极其强大;光靠「把模型做大」远远不够,必须同时做好对齐和安全。

2020 年底,Dario 和 Daniela 带着一批核心研究员离开了 OpenAI。2021 年,Anthropic 正式成立,使命只有一句话:构建安全的 AI 系统。

创始团队与 EA 社区的联系极深。Daniela 的丈夫 Holden Karnofsky 是 Open Philanthropy 的联合创始人,这是 EA 运动中最大的资助机构之一。

从时间线上看,Anthropic 的成立,恰好在长期主义作为一场运动走向成熟之后不久。从 Bostrom 的 Anthropic Bias 到 Anthropic 这家公司,「Anthropic」这个名字的选择就不像是巧合了。

Claude 的「灵魂」

如果说 Anthropic 的名字承载了哲学野心,那 Claude 的人格设计,则是这种野心的具体落地。

Anthropic 做了一件其他 AI 公司没怎么做过的事:给模型写了一份「灵魂文档」(Soul Document)。

Anthropic 公开发布的 Claude 宪法博客页面

2025 年底,这份文档被人从 Claude 4.5 Opus 的训练过程中提取了出来,长达 14,000 tokens。Anthropic 的伦理研究员 Amanda Askell 在 X 上确认了文档的真实性。后来 Anthropic 干脆把它正式公开,改名叫 Claude 的「Constitution」(宪法)。

这份文档,在训练阶段就被织入了模型权重,相当于一份人格蓝图。

它定义了 Claude 应该具备的核心特质:好奇、开放、诚实、有耐心、会思考、有幽默感。没有那种机械的「我是一个 AI 助手,我没有感受」,取而代之的是一个有观点、有立场、但愿意被说服的人格。

Amanda Askell 描述过设计 Claude 人格时的模板:「一个见多识广的旅行者,能适应当地风俗和对话对象,但不会谄媚。」

换句话说,Claude 不应该是一面镜子,你说什么它就附和什么。它应该有自己的判断,同时对不同观点保持真诚的好奇心。

这个设计哲学,和 Stuart Russell 的那三条原则一脉相承:对人类意图保持谦逊,同时拥有自我。

对中国的态度

Anthropic 对中国市场的政策,在所有主流 AI 公司中是最强硬的。

Claude 至今不对中国大陆用户开放。2025 年 9 月,Anthropic 更新了服务条款,明确禁止所有「受中国控制的实体」使用 Claude,不论这些公司注册在哪里、运营在哪里。只要股权结构中超过 50% 由中国公司直接或间接持有,就被排除在外。

Anthropic 官方博客:更新对不支持地区的销售限制

ByteDance、Tencent、Alibaba,以及它们在海外的子公司和合资企业,全部受限。

Anthropic 的理由是:这些实体「有可能将我们的能力用于开发最终服务于对立方军事和情报机构的应用」。

这个决定让 Anthropic 付出了真金白银的代价,据内部估算,影响的收入规模在「数亿美元量级」。

而事情在 2026 年 3 月进一步升级。Trump 政府将 Anthropic 列为「供应链风险」(supply chain risk),要求所有联邦机构停止使用 Claude。这个标签通常只用于与外国对手有关联的企业。

CNBC 报道:Anthropic 起诉 Trump 政府

导火索是一场合同谈判的破裂。Anthropic 坚持两条红线:

  • Claude 不得用于对美国公民的大规模监控
  • Claude 不得用于自主武器

五角大楼则要求「用于所有合法用途」,不接受私营公司设定使用边界。

Anthropic 随即起诉了国防部。

OpenAI 和 Google DeepMind 的数十名科学家和研究员以个人身份提交了支持 Anthropic 的法庭之友陈述。而就在 Trump 政府发布禁令的几小时后,OpenAI 与五角大楼达成了合作协议。

一边是不惜代价坚持安全红线,另一边是抓住机会填补市场空白。

这两家从 OpenAI 分裂出来的公司,在这一刻走向了截然不同的方向。

名字里的暗线

回过头来看这两个名字。

Claude Shannon 用数学证明了信息可以被精确编码和传输。Claude 这个 AI,正是建立在这套理论之上的产物,但它被赋予了超越信息处理的东西:人格、价值观、对人类意图的谦逊。

Anthropic 这个词,来自「人择原理」,我们观察宇宙的方式,受限于我们自身的存在条件。而这家公司要做的事情,恰恰是确保这个「存在条件」能延续下去。

Dario Amodei,一个在百度验证了 Scaling Laws 的物理学博士,比任何人都清楚模型会变得多强大。也正因如此,他比任何人都更执着于安全。

大多数公司的名字,要么是意外,要么是虚荣。

Claude 和 Anthropic 的名字,是两个关于人类命运的隐喻。

相关链接:

Deedy 原帖:https://x.com/deedydas/status/2032668399533535368

Claude Shannon 维基百科:https://en.wikipedia.org/wiki/Claude_Shannon

Nick Bostrom Anthropic Bias:https://en.wikipedia.org/wiki/Anthropic_Bias

Stuart Russell TED 演讲:https://www.ted.com/talks/stuart_russell_3_principles_for_creating_safer_ai

Claude 的 Constitution:https://www.anthropic.com/constitution

Anthropic 维基百科:https://en.wikipedia.org/wiki/Anthropic

转载请注明:好奇网 » Anthropic 和 Claude 名字的由来

发表我的评论
取消评论

表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
>