来源 | 《人民日报海外版》(2026年04月09日 第 09 版)
图源 | 千库网
责编 | 潘江涛
AI时代,你提的每一个问题,“龙虾”为你做的每一件事情,都是词元在背后“跑腿”。
AI工具每生成一个词元,都需要调用数据中心的算力,并伴随着电力消耗。
越来越多人用上AI工具,首先迎来的是词元调用量的激增,同步增长的,还有对算力的消耗。
设想一下:如果你正在使用AI工具,但半天没有收到AI的回复,你会作何感受?
当我们看到新闻中不断传出消息,词元调用量又增加了多少,相信不少人跟笔者有一样的担忧:照这个速度发展下去,我们的算力还够用吗?
就像高速公路上的车流量——车多了,道路会拥堵。词元调用量大了,算力也会面临压力。
最近,云厂商密集提价,纷纷调高AI算力租赁价格。背后的原因很明显——需求激增,供给偏紧,价格跟着上涨。
市场对GPU算力的需求持续强劲。市面上,有GPU芯片的租赁价格自2025年10月的每小时1.7美元上涨至今年3月的每小时2.35美元,涨幅近40%。
算力的需求曲线突然陡峭起来,算力供给还没来得及完全跟上。更聪明的AI智能体模型能执行更复杂的任务,但对算力的消耗量明显增大,如果算力不够,一个问题丢进去半天没有响应,一切体验都是空谈。

既然这样,如何破解?
其实,市场也已经在给出回应了。
先说开源。
以前,我们用的GPU芯片,许多依赖进口,也就是说,我们算力的“命门”掌握在别人手中。而现在,华为昇腾910B等国产AI芯片逐步量产,且产能不断提升,算力硬件供给走向多元化,避免了对单一外资芯片的过度依赖。
从这一点上看,因为硬件导致算力短缺的可能性正在慢慢降低。
不仅是硬件在不断突破,数据中心REITs等金融创新正在将算力资产证券化,吸引更多资本进入算力建设领域,也就是说,未来将有越来越多的算力设施能为大家服务。
说完开源,再看节流。
提升词元的转化效率,其实也是提高算力的使用效率,也是从另一个角度扩容算力“池子”。
最近,就有人提出,要构建更高效、标准化的“词元工厂”,提供持续稳定、规模化的词元服务,让顶尖模型能力高效赋能海量下游场景,尽可能提升每一个词元的转化效率,让算力“花得值”。
近期,也有不少企业加快了高性能算力的创新布局,其中以超节点为代表的架构创新,成为提升算力效率的重要路径。
如果再往远一点看,未来,算力设施的智能化水平也会不断提升,算法和算力系统之间的协同配合也会更默契,算力使用将更加高效。
算力紧张的确存在,但在笔者看来,这是阶段性的。就像刚开始普及3G的时候,大家感觉手机的流量总是不够用,而现在,大家可以随便刷视频。相信随着技术迭代、产能扩张和商业模式创新,算力的供需关系会逐步走向平衡。
而当下,除了关注算力的规模本身,我们也要更多关注如何更高效、更公平地调度和使用算力。