中国到底有多少AI算力?终于有人算清楚了,差距比想象中大

一份迟来的中美算力全景,和一个正在失真的统计框架

01 中美到底有多少AI算力?

每天都有人讨论中美AI竞争,但有一个最基础的问题一直没有靠谱答案:

双方到底各有多少算力?

算力是AI的基础设施,就像电力之于工业革命。连双方各有多少「电」都不知道,所有关于竞争格局的判断都是在猜。

最近终于有了一些可信的数据。Epoch AI估算了全球总量,ChinaTalk用自下而上的方法拆解了中国的份额。拼在一起,我们第一次能看到一张相对完整的算力全景。

02 美国:相对清楚的那一面

美国的算力相对好算,因为数据链条的每一环都有公开来源。

Epoch AI估算全球累计约2000万H100等效算力(H100e)。美国占60-70%,大约1200-1400万H100e

为什么这么确定?因为美国的AI算力主要集中在上市公司手里。

Google、Meta、Microsoft、Amazon、Oracle——这些hyperscaler每季度财报都会披露资本支出。NVIDIA是美国上市公司,芯片出货量和营收按区域公开。把hyperscaler的capex、NVIDIA的销售数据、加上AMD和Google TPU的份额,就能拼出一个相当准确的画面。

仅Google一家就拥有约500万H100e。Meta、Microsoft、Amazon各自也在百万级别。

这不是说美国的数字完全精确——公司不会公布每块GPU的部署位置。但数量级是清楚的,误差在可控范围内。

03 中国:终于有人认真算了

中国这边计算起来就困难多了。

ChinaTalk的Jordan Schneider用「自下而上」的供应侧方法,逐渠道拆解。结论:约280万H100e,占全球12.5%。90%置信区间是180万到480万——不确定性高达2.7倍。

280万从四个渠道来:

出口管制收紧前后通过正规渠道购买的A100、H800、H20等。其中H20是为满足出口限制设计的「受限版」,换算值偏低,但实际推理性能可能比数字显示的更强。

非官方渠道流入的算力,可能跟合法采购差不多多。合法窗口越窄,价差越高,市场自己会找到出路。

最大单一来源。华为Ascend占约70万,其余分散在寒武纪、摩尔线程、平头哥、昆仑芯等厂商。但标称性能和实际交付性能之间可能有显著差距,缺乏独立验证。

最大也最模糊的一块。大厂通过海外数据中心和云服务获取的算力。

为什么这么难算?因为四个渠道里有三个缺乏公开、可审计的数据。美国的透明度来自上市公司的信息披露制度,中国的不透明不是刻意隐藏,而是数据链条里太多环节本身就没有公开来源。

但我自己做AI产品的经验让我对这个数字有一个额外的质疑:大量中国创业者和一人公司在直接调用海外云算力。有的通过海外注册的公司使用AWS、GCP,有的干脆就用个人账号。这部分算力不在任何「中国算力」的统计里——那103万的「海外远程访问」主要统计的是字节、腾讯、阿里等大厂的已知海外集群,不包括这些分散的个体行为。

我身边做AI的朋友,至少一半在用海外云。这不是大厂行为,是千千万万小团队的日常。这些算力加起来有多少?没人知道。但它让我怀疑:「国家算力」这个统计框架本身正在失真。

一个在深圳写代码的创业者,通过新加坡注册的公司,调用美国的GPU集群,跑中国团队训练的开源模型——这个算力属于哪个国家?

但即便把这些考虑进去,数量级的差距仍然是真实的。

04 10:1的差距意味着什么

美国1200-1400万,中国180-480万(可能更高,但仍然相差一个数量级)。

这个差距不只是一个数字,它塑造了两个完全不同的AI生态。

当你的算力是别人的十分之一,你不会选择跟对方做同样的事。你会被迫找到效率更高的路。

美国

算力充足,闭源优先,大模型持续扩参数

中国

算力受限,效率优先,开源+蒸馏+极致推理

效率优先——DeepSeek的MoE架构、蒸馏技术、推理侧的极致压缩,都不是偶然的技术选择,是算力约束下的必然结果。用更少的计算做更多的事,不是美德,是生存策略。

开源优先——当算力有限,你不会把它浪费在调用昂贵的闭源API上。你会想办法在自己的硬件上跑开源模型。这也是为什么Qwen、DeepSeek等开源模型在中国的生态位比在美国更高。

海外获取——103万H100e通过海外数据中心获取,这是最大的单一来源。再加上统计之外的创业者个体行为,说明中国AI生态已经不是一个封闭系统。

约束催生创新。10:1的差距是劣势,但也是中国AI生态独特竞争力的来源。

05 短期内不会改变

有人会问:这个差距未来会缩小吗?

短期内很难。原因在供给侧的每一个环节。

全球市场份额2024年达到87%的峰值,2026年预计降到约75%。份额在降,但绝对营收还在涨——2026财年营收2159亿美元,同比增长65%。88%的毛利率让它有碾压性的研发和产能锁定优势。

护城河不只是芯片,是CUDA生态。20年积累,400万开发者,这不是短期能替代的。

但垄断在松动。AMD跟Meta签了600亿美元/5年的定制芯片大单,为Llama模型专门定制硅片。Google、AWS、Microsoft也在自研芯片减少依赖。行业从训练转向推理,推理对CUDA的依赖度更低,给替代方案打开了窗口。

三年路线图很清晰:2026年Ascend 950,2027年Ascend 960,2028年Ascend 970。2026年目标生产60万片Ascend 910C。

策略不是在单芯片上硬拼NVIDIA——制造工艺差两代(SMIC增强7nm vs TSMC 4nm),单芯片性能差距显著。走的是「堆量+互联」路线:用更多芯片加上自研UnifiedBus互联协议,把15,488片芯片串联成超级集群。官方宣称整体算力倍数级领先同代NVIDIA集群——但这个数字需要独立验证。

寒武纪4434亿元市值,2025年首次年度盈利;摩尔线程2682亿元市值,营收增长243%,创始人是前NVIDIA中国区总经理;沐曦、壁仞也都已上市。

但整体渗透率说明了真实状态:国产GPU渗透率含华为约15%,不含华为仅约3%。NVIDIA在中国的份额从95%跌到约8%,腾出的空间还远没有被填满。

行业共识:中国不会出现一个「中国版NVIDIA」来统一市场,而是形成多厂商各占一块的丛林生态——华为做大型基础设施,寒武纪做政府项目,摩尔线程做通用GPU,燧原做互联网大厂,各有各的领地。

格局远未定型。但10:1的算力差距,短期内不会因为国产芯片的发展而根本改变。

回到最初的问题:中美到底有多少AI算力?

美国约1200-1400万H100e,中国约280万(上下浮动)。相差一个数量级。

这个差距是真实的,短期不会消失。但它不是故事的全部。

核心判断

算力差距下的三条出路

效率算力约束逼出了效率优先的技术路线。DeepSeek、蒸馏、推理压缩——用更少的计算做更多的事

开源算力有限不能浪费在闭源API上。自己的硬件跑开源模型,这是Qwen和DeepSeek在中国生态位更高的底层原因

无国界算力的获取方式正在全球化。「国家算力」框架正在失真,AI竞争的单位不再是国家,是团队

AI竞争的赢家不是算力最多的一方,而是单位算力产出最高的一方。当你只有对方十分之一的电,你会学会用每一度电做更多的事。这可能才是中国AI最值得关注的故事。

参考文献:

How Much Compute Does China Have? — ChinaTalkNVIDIA GPU Market Share 2024–2026 — Silicon AnalystsWhy China Won't Get Its Nvidia — Tech Buzz ChinaSilicon Vanguard: Ranking China's Domestic Chip Leaders — Machine Yearning