你若不想做,总能找到借口;你若想做,总会找到方法。

AGI世界畅想

信息大爆炸 爱 好奇 来源:36氪 93浏览 0评论

AGI如果到来,会对社会、就业、能源消耗和AI 基础设施投资产生什么影响?

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:最近DeepSeek推理模型的表现和开源让人们对通用人工智能(AGI)有了更大的憧憬。本文用一些具体测算和假设推演这样的未来进行。文章来自编译。


“十年之内,60%-80%的工作岗位可能消失,而且大多数岗位没了就没了,不会有新的岗位替代旧的岗位。”

AI CEO们非常喜欢发表这样的言论。正因为他们讲了这样的话,我们才被迫接受这些言论的表面意思,然后再试图弄清楚其中的内在含义。

从历史上看,诺亚·史密斯所提出的比较优势论证已经在每个行业和技术转型中得到体现。但AI CEO们和支持者表示,这一次会不一样。

他们也确实在用实际行动践行承诺。比如 OpenAI 刚刚启动了星际之门项目。

| 星际之门计划在未来四年内投资 5000 亿美元,在美国为 OpenAI 建设新的AI基础设施。其中 1000 亿美元将马上到位。

显然,为了实现这个未来,我们将投入巨额资金,跟曼哈顿计划或阿波罗任务那种规模相当的资金。

但如果我们想为这个世界做好准备,就得更好地预测那个世界会是什么样子。还有很多未知数,包括进步的速度与我们可以期待的突破,所以这样的对话往往需要做出极端假设,如“完全失业”或“建造戴森球”或“数百万诺贝尔奖获得者在数据中心诞生”。

但我还是想试一下。以下是我们对AI及其资源使用情况的部分了解。

  • 在AI浪潮推动下,到 2030 年,数据中心电耗将占美国约的 12%
  • 2023 年至 2026 年间,支撑数据中心最重要组件(包括图形处理单元 (GPU) 和中央处理单元 (CPU) 服务器、存储系统、冷却和网络交换机)的电耗将增长近一倍,到 2026 年,全球电耗将达到 96 千兆瓦 (GW);光是 AI 操作的电耗就超过 40%
  • 按照 Epoch 的说法,AI 模型训练能力预计将大幅提升,到 2030 年将达到 2e29 FLOP(2×10^29 次浮点运算)。但他们还补充说:“数据移动瓶颈限制了 LLM 扩展到 2e28 FLOP 以上,而到达2e31 FLOP则会遭遇‘延迟墙’。大概在 3 年内就会达到这个极限。”
  • H100 GPU 的平均功耗约为 500瓦(SXM 更高,PCIe 更低)。顺便说一句,直到 2022 年的时候,用于 AI 的 GPU 的功耗还是 400 瓦,但 2023 年用于新一代 AI 的最先进 GPU 的功耗已达 700 瓦,预计 2024 年的下一代芯片功耗将达到 1200 瓦。
  • 数据中心那些 H100 GPU 的实际使用寿命相对较短,因为利用率一般维持在 60-70% 的高位,使用寿命大概是 1-3 年。按照 Meta 的使用率,这些 GPU 的年化故障率约为 9%。
  • OpenAI 的 o1-pro 模型每年的订阅费为 2400 美元也还在亏损,而 o1-preview 的每百万输入token成本为 15 美元,每百万输出和推理token成本为 60 美元。因此,其盈亏平衡点约为 360 万个token(如果输入:输出比为 1:8),按每次响应耗时 2 分钟,每代 1000 个token计,大概要100小时左右。
  • o3 模型在高计算模式下每项任务的成本约为 2000-3000 美元。进行 ARC 基准测试时,完成 100 项任务要用 3300 万个 token(低计算模式,1.3 分钟),高计算模式下则要消耗 57 亿 token(13 分钟)。每个推理链生成约 55000 个 token。
  • 推理成本似乎每年会降 10 倍。
  • 如果一个查询同时分配给 64 个 H100(对于大型 LLM 推理来说是很常见的情况),则需要支付 64 × (3 美元- 9 美元/小时)= 192 美元- 576 美元/小时(仅针对这些 GPU)。
  • 如果查询的总计算时间大概在4-5 GPU 小时范围内(比方说,用64 个 GPU 计算 5 分钟 → ~5.3 GPU 小时),则一次推理可能就要花费数千美元 — — 尤其是如果用云服务按需付费的话。
  • 完成一项任务大概要调用 20-30 次 Claude Sonnet ,耗时 10-15 分钟,如果需要人的干预来修复问题,大概还要消耗 200-300 万token。而如果是由一位像样的程序员来处理,大概需要花 30-45 分钟。
  • 当然你也可以聘请软件工程师 Devin (编者注:一个AI编程助理),每月的收费是 500 美元。为内部代码库创建测试套件大约需要 2 小时,自动创建基准数据可视化需要 4 小时。可以把这看作是AGI 的一个极其便宜但也非常糟糕的版本,因为经常会失效,但我们假设它可以达到“足够好”的程度。

AI大模型数据中心的热烈和电耗成本情况

现在我们可以对这个新的 AGI 世界做出一些假设,来看看资源需求是什么样的。

比方说,随着我们进入自主智能体的世界,会出现的重大变化可能是这些智能体可用于长期规划,当作“员工”用,而不仅仅是“工具”。

目前, o3 跑一次查询最多需要 3000 美元,耗时 13 分钟。用 64 块H100则需要跑5 分钟 ,大约是0.3 GPU小时,可能要花费几千美元。这跟报道的成本大概差不多。

月薪500 美元的软件工程师 Devin可以在 2-4 小时内完成一些任务(比方说创建测试套件、数据可视化等)。一个月算下来大概时160 个工时,相当于时薪为3到4 美元。不幸的是,这位工程师还不够好,但如果是用 o3 或 o5 的话,可能会好起来。这要比现在的 o3 便宜 1000 倍,如果未来几年的趋势保持不变,其价格大致会降到这个数量级。

不同约束下2030年训练算力的估算情况

现在我们得看看一个 AGI 的需求要多大。考虑到成本与扩展曲线,我们假设创建的 AGI是在一块 H100 或同等性能的板卡运行,每块的功耗是 500瓦,价格大概是 Devin 成本的一半,使用寿命为几年。

如果这些假设成立,我们可以计算出要消耗多少电力,然后反向推算出能够同时运行的GPU数量,以及这相当于多少个AGI“员工”。

到2030年,数据中心可能将消耗美国12%的电力。而美国每年约消耗4000太瓦时(TWh)的电力。如果人工智能消耗其中的40%,那就是192太瓦时(TWh)每年。一块H100持续运行一年的话,每年将消耗约4.38兆瓦时(MWh)的电力。

这意味着我们可以同时运行大约4400万块H100 GPU。实际上,考虑到电力供应、过热等因素,可能更实际的数字大概是这个数的一半。

如果要估算全球的数字,可能会翻倍——也就是说,最多可以达到约7600万块GPU同时运行,实际也许是会有约4000万个AGI智能体在不分昼夜的不停工作。

从全球数据中心关键电力需求到2026年预计将达到的96吉瓦(GW)也能推算出同样的数字。

不过也可以换种方式实现这一目标:建立更大规模的推理智能体,提炼它的思维,做出更好的基础模型,然后不断重复这一过程。

毕竟,如果缺的主要是理解和遵循复杂推理步骤的能力的话,则生成的这种推理越多,情况就会越好。

为此,一开始我们大概需要3300万块GPU,使用寿命在1到3年之间,这基本上就是全球的产能了。英伟达计划每年制造约150万到200万块GPU,因此产量需要大幅提升。

从规模上看,HPC 设置也会受到更多一般限制(网络结构带宽、内存容量或 HPC 集群利用率)的制约。一些中心指出,高带宽内存包的成本正在飙升,这可能会跟 GPU 的供应一样产生制约。

此外,一座现代化的尖端晶圆厂(如台积电的5 纳米/4 纳米晶圆厂)每月大概可生产约30 000 片晶圆。每片晶圆直径为300 毫米,产量约相当于 60 个优质 H100级模具(模具尺寸约为 800 mm²。大概相当与每年约 2100 万块 GPU。

整个半导体行业、能源行业和人工智能行业基本上必须重新进行布局,并成为世界经济更大(要比原来大很多!)的组成部分。

美国的劳动力资源为 1.68 亿人。劳动参与率为63%,到 2030 年无论如何都会有约 1100 万个就业岗位。而且由于 AGI 既不睡觉也不吃饭,所以工作时间增加了三倍。这相当于劳动力增加了一倍,生产力和智力也可能增加了一倍。

(是,很多工作需要具身和能力,但我认为 AGI 在需要的时候也能操作/遥控机器或机器人。)

如果我们稍微放宽一下假设会怎样?最大的一个,比方说我们又取得了一项研究突破,我们不需要 GPU 来跑 AGI了,它们会变得高效。这是有可能的,但很难比“按比例增加所有数字”的建模方式再进一步了。

其他一些假设会更有趣。如果 AGI 不是真正的 AGI,而更像是按照 OpenAI 的那种定义,也就是能完成 90% 的人类任务又如何?或者,如果它最擅长数学和科学,但仅限于这些,而你必须让它跑很长时间又会发生什么?尤其是如果备受吹捧的“智能体”没出现,但仍可以同样出色地解决复杂任务,比方说,“如果你把它们放进高盛交易室或刚果丛林中,能解决需要解决的任何问题”,但表现更加专业,又会如何?

如果 AGI 不能完美替代人类会怎样?

如果AI不能完美替代人类,仍需要我们纠正其工作方向、提供反馈等,那么瓶颈很大程度上仍是人类及其决策。这意味着未来增长的形态将与(极其成功的)生产力工具非常相似。你会面临失业,但也会有更多的经济活动,很可能会迎来经济繁荣时期。

关键在于这是否意味着我们能发现新的工作领域。你必须想象答案是肯定的!“我们还无法想象的工作”可能会出现是劳动经济学的常见观点,而从历史上看,这个观点是正确的。

但如果从“完成 60%”进步到“完成 90%”只需要收集几十万个任务完成情况的例子又会怎样?在我看来,对于很多任务来说这种可能性是很大的。这意味着大多数工作,或者说许多工作,都会明确将数据收集作为流程的一部分。

我可以想象这样一份工作:让你不断去做某项工作,让AI能够收集足够逼真的数据,调整其思维链,学习环境,并不断测试和调整失效的极端情况,直到它们学会怎么做。就是不断地工作 → 评估 → 调整。

换句话说,这些工作会有截止日期,或者至少有“持续创新或发现极端情况”这样的议程。由于鲍莫尔效应,他们中的大多数或许多人还是能拿到相当高的报酬,但总的来说,这更像是所有事情的问答录。

如果 AGI 不够通用呢?

我们可以多花很多钱在几个问题上取得超人突破,而不是仅仅招募 4000 万名新工人。就算成果率不高且能耗较大,这样的用处也会大得多。

即便假设某些领域需要付出 1000 倍的努力,并且成功率为 1%,那仍然是 400 项突破。这些突破都能达到“注意力就是你所需要的一切”这样的水平吗?还是“黎曼假设”那种?或者“广义相对论”的那种?值得怀疑。考虑到多年来研究这些问题的天才的数量,就会知道那是多么的罕见。

但再少这样的人必定会出现,而且会非同寻常。这些人将开启全新的行业。他们会帮助取得科学突破。撰写极具影响力和引用率极高的论文,改变行业。

我敢打赌,这会最大限度地提高科学生产力。

有趣的是,这些成果也是最不容易变现的。看看博士学位是怎么变现的吧。如果有了明确的价值观,比方说博士之前去做金融,现在投入AI训练一样,变现是可以的,但一般来说这并不成立。

无智能体的 AGI

AI,甚至是AI智能体,没法像完全通用的人类一样自主完成整个任务,但仍可以在更有限的领域内做到这一点,这是相当有可能的。

无论是数学、编码、生物学还是材料,有可能会出现超人科学家,而不是完全自动化的实验室。这更接近于之前的场景,也就是会出现新的行业和研究领域,而不是“从预订复杂的旅行行程到领导一项为期多年的癌症调查,无所不能的智能体。所以会在部分领域出现超级智能,或者更通用的智能,我们必须在考虑成本的情况下来决定什么是最有用的。

但这也意味着资本是稀缺资源,而人类则成为工作本身的协调者。经济里面应该纳入多少硅和能源的成分,必须得到全球的理解,而这将是关键瓶颈。

我认为未来不会有单一的答案。可能会出现一些超人的想法实现科学突破,然后出现一些通用智能体完成各种任务并实现自动化,而有些则要人机配合,不管是哪种组合,反正要看谁能最好为经济服务。

这就意味着AI的发展方式和约束类型最终将影响整体经济状况。o1-pro 概括出了下面几种情况。

o1-pro 预测AGI的四种发展模式

不管最后何去何从,随着AI日益融入经济,整个经济似乎将发生重新洗牌。从某些方面来说,我们的经济跟几十年前非常相似,但在其他方面,也存在着巨大差异,所以历史不会重演,但会押韵。

译者:boxi。

转载请注明:好奇网 » AGI世界畅想

发表我的评论
取消评论

表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址