当前算力和电力供应已成为制约AI产业发展的核心瓶颈。吴恩达指出,算力需求并未因模型高效化而下降,反而因为消费级AI产品爆发而持续扩大,“太多人希望多跑一些推理、多生成一些token,但我们现在就是没有足够的GPU、数据中心和电力去满足这种需求。”[1]以AI编码助手为例,开发者希望增加推理次数和代码生成量,但资源配额往往很快被消耗殆尽,即使企业愿意付费也难以在短期内获得更多可用算力。[1]
与此同时,供电能力已成为直接决定数据中心算力增长上限的核心变量,而不仅是后台支持问题。越来越多地区的数据中心建设因审批流程、社区协调和基础设施瓶颈而被延迟,扩容速度明显慢于需求增长。[1]真正稀缺的并不只是算力芯片本身,而是支撑算力系统稳定运行的光、电、热、网等协同基础设施。[2]