: 电子产品世界 本周,Nvidia 及其合作伙伴 Amkor、富士康、SPIL、台积电和纬创软件宣布计划在未来四年内在美国建造价值 5000亿美元的 AI 硬件。该公告包括实际 AI 处理器的生产、测试和包装,以及组装实际的 AI 服务器。但是,尽管该公告代表了构建价值五万亿美元的 AI 硬件的计划,但它缺乏细节,这让人怀疑它是否能做到。因此,我们决定仔细研究一下。
本文引用地址:
在美国构建本地 AI 供应链
台积电已经承诺在其Fab 21制造工厂投资 1650亿美元,时间未知,因此可以肯定地说,有(并且将有)先进的制造能力来为 Nvidia 制造芯片。
支持 4nm 的 Fab 21 第一阶段已经在量产,支持 3nm 的 Fab 21 第二阶段预计将于 2028年开始量产,支持 2nm/1.6nm 的 Fab 21 第三阶段预计将在本十年末开始大批量制造芯片。
在封装方面,TSMC 承诺在美国建造两个先进的测试和封装设施。
Amkor 正在建造一座耗资 20亿美元的先进封装设施,建成并配备齐全后,将拥有 500,000 平方英尺(46,451 平方米)的洁净室空间。本周,SPIL 还宣布将在美国建造一家封装工厂,根据 Nvidia 的新闻稿,它还将拥有 500,000 平方英尺(46,451 平方米)的洁净室空间。该公司没有透露计划的投资,但它可能会与 Amkor 的工厂处于同一位置。
以 Amkor 和 SPIL 的投资为例:TSMC 目前的先进封装设施成本不到 20亿美元,而且由于需求量很大,它们无法满足所有使用 CoWoS 和其他封装方法的客户的需求。
然而,两座价值 20亿美元的 OSAT 工厂可能足以满足 Apple、AMD 和 Nvidia 在美国制造的产品的需求。但是,您应该记住,Amkor 的工厂计划于 2027年开始运营,目前尚不清楚 SPIL 的工厂何时准备就绪。
除了芯片生产和封装设施外,英伟达的合作伙伴还将在美国建造实际的 AI 服务器组装厂。富士康打算在德克萨斯州休斯顿建厂,而纬创打算在德克萨斯州达拉斯建厂。两家公司都计划很快开始建设,并将在从现在起的 12-15 个月内开始制造服务器。
据《韩国邮报》报道,富士康子公司 Ingrasys 已投资高达 1.42亿美元,在德克萨斯州休斯顿附近购买了 349,000米^2 的土地(是五角大楼占地面积的三倍)和一个 93,000米^2 的设施(与典型的亚马逊配送中心大小大致相同)。
该工厂似乎适合组装 AI 服务器,尽管按照富士康的标准,它算不上什么大工厂。例如,富士康郑州(又名 iPhone City)工厂拥有 140万米^2 的工厂空间。还值得注意的是,据彭博社报道,富士康还在建设其所谓的墨西哥最大的 AI 服务器组装厂,预计耗资 9亿美元,并于 2025年底或 2026年初准备就绪。
纬创资聪设施的规模尚不清楚。需要注意的是,Nvidia 及其制造合作伙伴计划部署 Nvidia 的 Omniverse 来模拟工厂运营并对其进行优化,并使用 Isaac GR00T 为这些设施开发自动化机器人系统。鉴于这些优势,有理由预期新工厂将比已部署的工厂具有更高的效率。
什么是 5000亿美元的 AI 设备?
毫无疑问,5000亿美元是一笔过高的数目。但是,就 AI 硬件而言,这个数字实际上会变成什么呢?
根据经验,AI GPU 的成本是 AI 硬件的一半,因此 Nvidia 预计在美国生产价值 2500亿美元的 AI GPU 和价值 2500亿美元的支持硬件。
一台配备 8 个 B200 GPU、2 个 56 核 Intel Xeon 8570 处理器、2 TB DDR5 内存、30 TB NVMe 存储、6 个 NVLink 交换机、8 个 Nvidia ConnectX-7 VPI 卡和软件的不含税成本为593,000 欧元(670,000 美元)。5000亿美元可以为您提供超过 746000 台 DGX B200 服务器。据报道,Nvidia 配备 78 个 B200 GPU 的 NVL72 机架售价 300万美元。花五万亿美元,您可以获得 166,667 个 NVL72 机架。
您还必须质疑,富士康和美国的工厂(从现在开始运营 12-15 个月后开始运营)能否在接下来的三年内构建 746000 台 8 路 DGX 服务器,或 16667 个配备 72 个 GPU 的机架。
为此,他们必须每年构建 249,000 个 8 路 DGX 服务器(每天 682 台计算机),或每年构建 55,500 个 AI 机架(每天 152 个机架),这是很多。根据DigiTimes Research的数据,到 2024年,AI 服务器的全球出货量约为 639,000 台。根据TrendForce的数据,AI 服务器的价值去年达到 2050亿美元。
在两个设施中构建约 40% 的 2024年 AI 服务器供应(通过 Omniverse 和高级机器人增强)是一项雄心勃勃的计划。众所周知,富士康和纬创将他们的设施设计为运行数十条并行生产线,而 100,000米^2 的设施可以容纳数十条专业化和高度自动化的生产线,因此他们很可能每年能够生产数十万台 AI 服务器。
但是,到 2029年,Nvidia 是否有可能在美国生产价值 2500亿美元的数据中心产品(包括 GPU、CPU 和网络设备)?为了实现 Nvidia 在未来四年内在美国生产价值 2500亿美元的面向 AI 的芯片的宏伟目标,Nvidia 及其合作伙伴每年必须在美国生产价值 655亿美元的芯片。英伟达在 2025 财年的数据中心收益为 1150亿美元,因此,如果它以某种方式将其 55% 的服务器产品的生产转移到美国,那么每年制造价值 655亿美元的芯片是可能的。
然而,考虑到台积电的 Fab 21 第二阶段将于 2028年开始生产 3nm Rubin GPU,而 Amkor 的先进封装设施有望在 2027年开始运营,我们只能想知道 Nvidia 是否真的可以在 2026年至 2027年将其 55% 的数据中心生产转移到美国。
虽然到 2029年在美国生产 5000亿美元 AI 硬件的目标可能是一个过于雄心勃勃的项目,但 Nvidia 及其合作伙伴可能会在未来四年内生产价值数千亿美元的 AI 硬件。 |